Logo video2dn
  • Сохранить видео с ютуба
  • Категории
    • Музыка
    • Кино и Анимация
    • Автомобили
    • Животные
    • Спорт
    • Путешествия
    • Игры
    • Люди и Блоги
    • Юмор
    • Развлечения
    • Новости и Политика
    • Howto и Стиль
    • Diy своими руками
    • Образование
    • Наука и Технологии
    • Некоммерческие Организации
  • О сайте

Скачать или смотреть Почему эксперты призывают остановить ИИ прямо сейчас | Предупреждающие выстрелы №15

  • 2025-10-26
  • 37856
Почему эксперты призывают остановить ИИ прямо сейчас | Предупреждающие выстрелы №15
  • ok logo

Скачать Почему эксперты призывают остановить ИИ прямо сейчас | Предупреждающие выстрелы №15 бесплатно в качестве 4к (2к / 1080p)

У нас вы можете скачать бесплатно Почему эксперты призывают остановить ИИ прямо сейчас | Предупреждающие выстрелы №15 или посмотреть видео с ютуба в максимальном доступном качестве.

Для скачивания выберите вариант из формы ниже:

  • Информация по загрузке:

Cкачать музыку Почему эксперты призывают остановить ИИ прямо сейчас | Предупреждающие выстрелы №15 бесплатно в формате MP3:

Если иконки загрузки не отобразились, ПОЖАЛУЙСТА, НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если у вас возникли трудности с загрузкой, пожалуйста, свяжитесь с нами по контактам, указанным в нижней части страницы.
Спасибо за использование сервиса video2dn.com

Описание к видео Почему эксперты призывают остановить ИИ прямо сейчас | Предупреждающие выстрелы №15

https://safe.ai/act

На этой неделе в программе Warning Shots Джон Шерман, Лирон Шапира и Майкл из Lethal Intelligence разбирают новое скандальное «Заявление о сверхразуме» Института будущего жизни — прямой призыв запретить разработку сверхразума до тех пор, пока не будут получены научные доказательства и общественное согласие с тем, что это безопасно.

Они прослеживают эволюцию от заявления Центра безопасности ИИ 2023 года («Снижение риска вымирания из-за ИИ…») до сегодняшнего, гораздо более смелого требования: «Не создавайте сверхразум, пока мы не будем уверены, что он нас не уничтожит».

Вместе они разбирают:

• Почему «запрет суперинтеллекта» может стать новым лозунгом в защиту безопасности ИИ

• Как общественное мнение склоняется в сторону регулирования и ограничений

• Резкая реакция политиков, таких как Дин Болл, и что она раскрывает

• Могут ли заявления и подписи привести к реальным политическим переменам

В этом выпуске запечатлён поворотный момент: момент, когда безопасность ИИ переходит от экспертов к простым людям.

Если сегодня воскресенье, это «Предупредительные выстрелы».

⏱️ Временные метки
00:00 – «ИИ умнее людей во всём» — Вступительное слово
00:43 – Вступление и вводная часть: Джон, Лирон, Майкл
02:10 – Разъяснение Заявления о рисках ИИ в 2023 году
04:03 – «Наша штука может убить нас всех» — моральное признание
05:12 – С 2023 по 2025 год: расцвет Superintelligence.org
07:00 – Чтение нового заявления
08:04 – Что на самом деле означает «сверхразум»
10:28 – Гражданская и экспертная версии письма
11:34 – «Просто ещё одно заявление?» — обращение к критикам
13:45 — Опросы показывают общественную поддержку идеи приостановки развития ИИ
15:35 — «Запретить сверхразум» — новый мощный слоган
16:19 — От заявлений к действиям: появляются политики, выступающие за безопасность ИИ
18:45 — Момент «голого императора»
20:09 — Критика Дина Болла и опровержение ведущих
26:34 — Заключительные мысли и заключение

Читайте заявление о сверхразуме здесь: https://superintelligence-statement.org/

Комментарии

Информация по комментариям в разработке

Похожие видео

  • О нас
  • Контакты
  • Отказ от ответственности - Disclaimer
  • Условия использования сайта - TOS
  • Политика конфиденциальности

video2dn Copyright © 2023 - 2025

Контакты для правообладателей [email protected]