Logo video2dn
  • Сохранить видео с ютуба
  • Категории
    • Музыка
    • Кино и Анимация
    • Автомобили
    • Животные
    • Спорт
    • Путешествия
    • Игры
    • Люди и Блоги
    • Юмор
    • Развлечения
    • Новости и Политика
    • Howto и Стиль
    • Diy своими руками
    • Образование
    • Наука и Технологии
    • Некоммерческие Организации
  • О сайте

Скачать или смотреть Бывший учёный Google DeepMind, «Настоящая угроза ИИ — потеря контроля», Кристофер Саммерфилд

  • The Nick Standlea Show
  • 2025-11-26
  • 125787
Бывший учёный Google DeepMind, «Настоящая угроза ИИ — потеря контроля», Кристофер Саммерфилд
podcastbe curiousThe Nick Standlea Showpodask questionsNick Standleamotivationlearningnick stanley
  • ok logo

Скачать Бывший учёный Google DeepMind, «Настоящая угроза ИИ — потеря контроля», Кристофер Саммерфилд бесплатно в качестве 4к (2к / 1080p)

У нас вы можете скачать бесплатно Бывший учёный Google DeepMind, «Настоящая угроза ИИ — потеря контроля», Кристофер Саммерфилд или посмотреть видео с ютуба в максимальном доступном качестве.

Для скачивания выберите вариант из формы ниже:

  • Информация по загрузке:

Cкачать музыку Бывший учёный Google DeepMind, «Настоящая угроза ИИ — потеря контроля», Кристофер Саммерфилд бесплатно в формате MP3:

Если иконки загрузки не отобразились, ПОЖАЛУЙСТА, НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если у вас возникли трудности с загрузкой, пожалуйста, свяжитесь с нами по контактам, указанным в нижней части страницы.
Спасибо за использование сервиса video2dn.com

Описание к видео Бывший учёный Google DeepMind, «Настоящая угроза ИИ — потеря контроля», Кристофер Саммерфилд

Доктор Кристофер Саммерфилд, нейробиолог Оксфордского университета и директор по исследованиям Британского института безопасности искусственного интеллекта, бывший старший научный сотрудник Google DeepMind, рассказывает о своей новой книге «Эти странные новые умы», в которой исследуется, как большие языковые модели научились говорить, чем они отличаются от человеческого мозга и что означает их развитие для контроля, самостоятельности и будущего работы.

Мы обсуждаем:
Реальный риск ИИ — потеря контроля, а не вымирание

Как агенты ИИ действуют в невидимых для человека цифровых циклах

Почему агентивность может быть важнее вознаграждения

Хрупкость, петли обратной связи и аналогии с внезапными сбоями

Чему ИИ учит нас о человеческом интеллекте

Дополнение против замены в медицине, юриспруденции и не только

Почему доверие — это социальная форма агентивности, и почему люди должны оставаться в курсе событий

🎧 Слушайте другие выпуски: @TheNickStandleaShow

Примечания гостя:
Профессор когнитивной нейронауки
🌐 Лаборатория обработки информации человеком (Оксфорд)
🏛 Британский институт безопасности ИИ
Экспериментальная психология
Оксфордский университет

Лаборатория обработки информации человеком (HIP) на кафедре экспериментальной психологии Оксфордского университета под руководством профессора Кристофера Саммерфилда: https://humaninformationprocessing.com/

📘 Эти странные новые Minds (Penguin Random House): https://www.amazon.com/These-Strange-...

Медиа Кристофера Саммерфилда:
https://csummerfield.github.io/person...
https://flightlessprofessors.org
Twitter: @summerfieldlab
bluesky: @summerfieldlab.bsky.social

🔗 Поддержите этот подкаст, ознакомившись с нашими спонсорами:
👉 Создайте своего собственного ИИ-агента с помощью Zapier (открывает конструктор с предустановленными подсказками): https://bit.ly/4hH5JaE

Test Prep Gurus
Сайт: https://www.prepgurus.com
Instagram: @TestPrepGurus

Присоединяйтесь к шоу Ника Стэндли:
YouTube: @TheNickStandleaShow
Сайт подкаста: https://nickshow.podbean.com/
Подкасты Apple: https://podcasts.apple.com/us/podcast...
Spotify: https://open.spotify.com/show/0YqBBne...
RSS-канал: https://feed.podbean.com/nickshow/fee...

Соцсети Ника:
Instagram: @nickstandlea
X (Twitter): @nickstandlea
TikTok: @nickstandleashow
Facebook: @nickstandleapodcast

Задавайте вопросы,
не принимайте статус-кво,
и будьте любознательны.

🕒 Тайм-коды / Главы
00:00 Начало — контроль, агентность и ИИ
00:31 Вступление гостя: Оксфорд → DeepMind → Британский институт безопасности ИИ
01:02 Реальная история «захвата» ИИ: потеря контроля
03:02 Убьёт ли нас ИИ? Объяснение проблемы контроля
06:10 Агентность как базовое психологическое благо
10:46 Фаустовская сделка: эффективность против личной агентности
13:12 Что такое агенты ИИ и почему они хрупкие?
20:12 Три группы риска: неправильное использование, ошибки, системные эффекты
24:58 Аналогии хрупкости и внезапных сбоев в системах ИИ
30:37 Действительно ли мы понимаем, как думают модели? (Трансформеры 101)
34:16 Чему ИИ учит нас о человеческом интеллекте
36:46 Мозг против нейронных сетей: сходства и различия
43:57 Телесное воплощение и почему робототехника всё ещё сложна
46:28 Дополнение против замены в работе «белых воротничков»
50:14 Доверие как социальный фактор — почему люди должны оставаться в курсе событий
52:49 Где найти Кристофера и заключительные мысли

Комментарии

Информация по комментариям в разработке

Похожие видео

  • О нас
  • Контакты
  • Отказ от ответственности - Disclaimer
  • Условия использования сайта - TOS
  • Политика конфиденциальности

video2dn Copyright © 2023 - 2025

Контакты для правообладателей [email protected]