Logo video2dn
  • Сохранить видео с ютуба
  • Категории
    • Музыка
    • Кино и Анимация
    • Автомобили
    • Животные
    • Спорт
    • Путешествия
    • Игры
    • Люди и Блоги
    • Юмор
    • Развлечения
    • Новости и Политика
    • Howto и Стиль
    • Diy своими руками
    • Образование
    • Наука и Технологии
    • Некоммерческие Организации
  • О сайте

Скачать или смотреть Why Superhuman AI Would Kill Us All - Eliezer Yudkowsky

  • Chris Williamson
  • 2025-10-25
  • 127194
Why Superhuman AI Would Kill Us All - Eliezer Yudkowsky
modern wisdompodcastchris williamsonChris Williamson modern wisdommodern wisdom podcastchriswillxChris Williamson Modern Wisdom PodcastEliezer YudkowskyAI safetyartificial intelligence ethicsAGI alignmentexistential riskAI apocalypseOpenAIMIRImachine learningfuture of humanityrationalityLessWrongsuperintelligenceAI control problemAI doomersingularityAI takeoverAI safety researchAI extinction theorieseffective altruismAi ethicsai
  • ok logo

Скачать Why Superhuman AI Would Kill Us All - Eliezer Yudkowsky бесплатно в качестве 4к (2к / 1080p)

У нас вы можете скачать бесплатно Why Superhuman AI Would Kill Us All - Eliezer Yudkowsky или посмотреть видео с ютуба в максимальном доступном качестве.

Для скачивания выберите вариант из формы ниже:

  • Информация по загрузке:

Cкачать музыку Why Superhuman AI Would Kill Us All - Eliezer Yudkowsky бесплатно в формате MP3:

Если иконки загрузки не отобразились, ПОЖАЛУЙСТА, НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если у вас возникли трудности с загрузкой, пожалуйста, свяжитесь с нами по контактам, указанным в нижней части страницы.
Спасибо за использование сервиса video2dn.com

Описание к видео Why Superhuman AI Would Kill Us All - Eliezer Yudkowsky

Go see Chris live in America - https://chriswilliamson.live

Eliezer Yudkowsky is an AI researcher, decision theorist, and founder of the Machine Intelligence Research Institute.

Is AI our greatest hope or our final mistake? For all its promise to revolutionize human life, there’s a growing fear that artificial intelligence could end it altogether. How grounded are these fears, how close are we to losing control, and is there still time to change course before it’s too late?

Expect to learn the problem with building superhuman AI, why AI would have goals we haven’t programmed into it, if there is such a thing as Ai benevolence, what the actual goals of super-intelligent AI are and how far away it is, if LLMs are actually dangerous and their ability to become a super AI, how god we are at predicting the future of AI, if extinction if possible with the development of AI, and much more…

-

00:00 Superhuman AI Could Kill Us All
10:25 How AI is Quietly Destroying Marriages
15:22 AI is an Enemy, Not an Ally
26:11 The Terrifying Truth About AI Alignment
31:52 What Does Superintelligence Advancement Look Like?
45:04 Are LLMs the Architect for Superhuman AI?
52:18 How Close are We to the Point of No Return?
01:01:07 Experts Need to be More Concerned
01:15:01 How Can We Stop Superintelligence Killing Us?
01:23:53 The Bleak Future of Superhuman AI
01:31:55 Could Eliezer Be Wrong?

-

Get access to every episode 10 hours before YouTube by subscribing for free on Spotify - https://spoti.fi/2LSimPn or Apple Podcasts - https://apple.co/2MNqIgw

Get my free Reading List of 100 life-changing books here - https://chriswillx.com/books/

Try my productivity energy drink Neutonic here - https://neutonic.com/modernwisdom

-

Get in touch in the comments below or head to...
Instagram:   / chriswillx  
Twitter:   / chriswillx  
Email: https://chriswillx.com/contact/

Комментарии

Информация по комментариям в разработке

Похожие видео

  • О нас
  • Контакты
  • Отказ от ответственности - Disclaimer
  • Условия использования сайта - TOS
  • Политика конфиденциальности

video2dn Copyright © 2023 - 2025

Контакты для правообладателей [email protected]