Холли Элмор, исполнительный директор Pause.ai в США и биолог-эволюционист, рассказывает, почему сверхразумный ИИ представляет собой экзистенциальную угрозу, к которой человечество не готово. Она объясняет принципиальное различие между узкоспециализированными инструментами ИИ и ИИ с высоким интеллектом, который может превзойти человеческий интеллект во всех областях, и почему «умнее» не значит «безопаснее». Узнайте о глобальном движении, которое стремится остановить опасную разработку ИИ, прежде чем мы потеряем контроль над технологиями, способными изменить или уничтожить цивилизацию.
👉 Скачайте БЕСПЛАТНЫЙ пакет «Ускоритель ИИ» — высококачественные подсказки для повышения вашей продуктивности, креативности и успеха: https://bit.ly/3MqUhUQ
Исполнительный директор Pause.ai в США Холли возглавляет американское отделение глобального движения Pause.ai, которое выступает за прекращение самых передовых экспериментов с ИИ до тех пор, пока не будут разработаны системы безопасности и управления. Она создала низовую организацию, охватывающую 16–17 городов США, и координирует свою деятельность с международными отделениями в 15 странах мира.
Организатор и сторонник политики безопасности ИИ | Движение Pause.ai Холли организует протесты, демонстрации и образовательные кампании, чтобы повысить осведомленность общественности об экзистенциальных рисках, связанных с общим искусственным интеллектом и сверхинтеллектом. Она успешно боролась с федеральным законодательством о приоритете ИИ, которое блокировало бы регулирование на уровне штатов без создания каких-либо федеральных рамок, и возглавляет национальные кампании, мобилизующие граждан обращаться к своим представителям по вопросам безопасности ИИ.
Биолог-эволюционист | Научная биография Холли привносит уникальный научный подход к оценке рисков, связанных с ИИ, благодаря своему образованию в области эволюционной биологии, применяя принципы биологического интеллекта и естественного отбора для понимания развития искусственного интеллекта. Её биологические знания лежат в основе её анализа порогов интеллекта, когнитивных способностей и тезиса ортогональности, касающегося взаимосвязи интеллекта и морали.
//ССЫЛКИ
Персональный сайт: hollyelmore.substack.com
Профессиональный сайт: https://www.pauseai-us.org/
Twitter: / ilex_ulmus
//ЗАМЕТКИ С ВЫСТУПЛЕНИЯ
00:00 - 03:41 | Чем ОИИ отличается от современного ИИ
03:42 - 07:22 | Тезис ортогональности: интеллект без морали
07:23 - 11:04 | Почему суперинтеллект не будет автоматически заботиться о людях
11:05 - 14:46 | Как ядерные договоры служат основой для регулирования ИИ
14:47 - 18:28 | Управление вычислениями: отслеживание развития ИИ со спутников
18:29 - 22:10 | Почему мы не можем ждать предупредительных выстрелов
22:11 - 25:52 | ChatGPT как личный сигнал тревоги
25:53 - 29:34 | Зарождение и развитие движения Pause.ai
29:35 - 33:16 | Борьба с превентивным использованием ИИ в федеральном законодательстве
33:17 - 36:53 | Как присоединиться к движению Pause
//ИНТЕРВЬЮ
ИИН против сверхинтеллекта | Понимание критической разницы между общим интеллектом человеческого уровня и системами, превосходящими человеческие возможности во всех областях.
Проблема муравьёв | Как сверхинтеллектуальный ИИ может непреднамеренно навредить человеку, подобно тому, как люди редко обращают внимание на муравьёв, на которых наступают при ходьбе.
Прецедент по ядерному договору | Почему международные соглашения по ядерному оружию служат проверенной основой для регулирования передовых разработок ИИ.
Стратегия управления вычислениями | Как тепловые сигнатуры центров обработки данных и узкие места вычислений позволяют отслеживать и контролировать разработку ИИ со спутников.
Глобальное движение Pause.ai | Формирование общественной поддержки в 15 странах и 16 городах США для прекращения опасных экспериментов с ИИ.
Действия на местах | Конкретные способы влияния граждан на политику в области ИИ посредством петиций, представительской работы и местных организаций.
// ЦИТАТЫ
«Когда мы проходим мимо муравейника, большинство людей, как правило, не задумываются о том, чтобы раздавить нескольких муравьёв. Знаете? Просто их это не беспокоит. Знаете? И именно такими были бы отношения».
«Интеллект — это способность достигать целей, и она может быть направлена на что угодно. Например, ваши ценности, ваша мораль определяют ваши цели, но способность достигать целей не зависит от этого».
«Центры обработки данных, где обучается ИИ, испускают, типа, огромные тепловые сигнатуры, которые видны со спутников. Было бы очень, очень сложно скрыть передовой ИИ, по крайней мере, для, скажем, обучения ИИ с использованием машинного обучения, от всего мира».
«Это как провал рынка, который положит конец всем провалам рынка. Нам нужно внешнее регулирование, за пределами проекта создания ИИ».
«Я правда не думал, что мы увидим, как компьютер, например, овладеет естественным языком, при моей жизни».
«Нет такого закона природы, который гласит, что человек не может б...
Информация по комментариям в разработке