Logo video2dn
  • Сохранить видео с ютуба
  • Категории
    • Музыка
    • Кино и Анимация
    • Автомобили
    • Животные
    • Спорт
    • Путешествия
    • Игры
    • Люди и Блоги
    • Юмор
    • Развлечения
    • Новости и Политика
    • Howto и Стиль
    • Diy своими руками
    • Образование
    • Наука и Технологии
    • Некоммерческие Организации
  • О сайте

Скачать или смотреть 10 إلى 20% خطر فناء البشر.. "عرّاب" الذكاء الاصطناعي يوجه تحذيرًا قاتمًا بشأن المستقبل القريب

  • CNNArabic
  • 2025-08-14
  • 27117
10 إلى 20% خطر فناء البشر.. "عرّاب" الذكاء الاصطناعي يوجه تحذيرًا قاتمًا بشأن المستقبل القريب
CNNCNNArabiccnnarabiaسي ان انسي ان ان بالعربيةالذكاء الاصطناعيالتكنولوجياجيفري هينتونأندرسون كوبرAIanderson coopertechnologyjefry hintonjeffry hintonai godfather
  • ok logo

Скачать 10 إلى 20% خطر فناء البشر.. "عرّاب" الذكاء الاصطناعي يوجه تحذيرًا قاتمًا بشأن المستقبل القريب бесплатно в качестве 4к (2к / 1080p)

У нас вы можете скачать бесплатно 10 إلى 20% خطر فناء البشر.. "عرّاب" الذكاء الاصطناعي يوجه تحذيرًا قاتمًا بشأن المستقبل القريب или посмотреть видео с ютуба в максимальном доступном качестве.

Для скачивания выберите вариант из формы ниже:

  • Информация по загрузке:

Cкачать музыку 10 إلى 20% خطر فناء البشر.. "عرّاب" الذكاء الاصطناعي يوجه تحذيرًا قاتمًا بشأن المستقبل القريب бесплатно в формате MP3:

Если иконки загрузки не отобразились, ПОЖАЛУЙСТА, НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если у вас возникли трудности с загрузкой, пожалуйста, свяжитесь с нами по контактам, указанным в нижней части страницы.
Спасибо за использование сервиса video2dn.com

Описание к видео 10 إلى 20% خطر فناء البشر.. "عرّاب" الذكاء الاصطناعي يوجه تحذيرًا قاتمًا بشأن المستقبل القريب

تحدث جيفري هينتون، رائد تكنولوجيا الذكاء الاصطناعي والذي يُطلق عليه غالبًا لقب "عراب الذكاء الاصطناعي" بعدما ساهمت أبحاثه الرائدة في تمهيد الطريق للذكاء الاصطناعي، إلى مذيع شبكة CNN، أندرسون كوبر، حول التأثيرات المروعة المحتملة للذكاء الاصطناعي على البشرية وما يمكن فعله لمحاربته.

نستعرض لكم فيما يلي نص الحوار الذي دار بينهما:

أندرسون كوبر: البروفيسور هينتون، من الواضح أن ملاحظاتك قد حظيت باهتمام كبير. لقد تحدثتَ عن قيام المهندسين بدمج غرائز الأمومة في نماذج الذكاء الاصطناعي. ما الهدف من ذلك؟ وماذا سيفعل؟ وهل هو ممكن أصلًا؟

جيفري هينتون: يعتقد معظم خبراء الذكاء الاصطناعي أنه في وقت ما خلال السنوات الخمس إلى العشرين القادمة، ستُصنع أنظمة ذكاء اصطناعي أذكى من البشر، وربما ستصبح أذكى بكثير منهم. وهناك أمثلة قليلة جدًا نعرفها عن أشياء أذكى تُسيطر عليها أشياء أقل ذكاءً. في الواقع، المثال الوحيد الذي نعرفه تقريبًا هو أمٌّ يتحكم بها طفلها. ولجعل ذلك يحدث، غرس التطور غرائز الأمومة في الأم. وإذا لم نفعل شيئًا كهذا مع هذه الكائنات الفضائية التي نخلقها، فسنصبح من التاريخ.

أندرسون كوبر: ما مدى صعوبة بناء غرائز الأمومة من منظور تكنولوجي؟ أعني، هل يوجد مثال على ذلك أصلًا، أو هل حدث ذلك أصلًا؟

جيفري هينتون: المثال الحقيقي الوحيد لدينا هو التطور. من الواضح أن التطور قد أحسن التعامل مع الأمهات. لم يُركز الناس على ذلك، بل ركزوا على جعل هذه الأشياء أكثر ذكاءً. لكن الذكاء ليس سوى جزء من الكائن. علينا أن نجعلهم يتعاطفون معنا، وما زلنا لا نعرف كيف نفعل ذلك. لكن التطور تدبر أمره، وينبغي أن نكون قادرين على ذلك أيضًا.

أندرسون كوبر: كما تعلم، لقد سمعنا من العديد من الأشخاص، من رواد مجال التكنولوجيا، الذين يقولون: حسنًا، انظروا، إذا لم تفز الولايات المتحدة بهذه الحرب، هذه المعركة للسيطرة على عالم الذكاء الاصطناعي، فإن دولة مارقة، دولة عدوة للولايات المتحدة - الصين أو روسيا - ستسيطر على الذكاء الاصطناعي. إذا لم تُطور الصين الذكاء الاصطناعي الذي يمتلك غرائز الأمومة، وكانت الولايات المتحدة هي الوحيدة التي تمتلك غرائز الأمومة، ألا يجعلهم ذلك أضعف في هذه الحرب من أجل الهيمنة؟

جيفري هينتون: حسنًا، هناك العديد من مخاطر الذكاء الاصطناعي، مثل الهجمات الإلكترونية وفقدان الوظائف وظهور فيروسات خبيثة. لكن أحد هذه المخاطر هو هذا التهديد الوجودي المتمثل في سيطرة الذكاء الاصطناعي. ومن أجل هذا التهديد، ستتعاون جميع الدول لأنها جميعًا في نفس القارب. لا تريد أي دولة للذكاء الاصطناعي أن يسيطر. فكما تعاون الاتحاد السوفيتي والأمريكيون في ذروة الحرب الباردة، ستتعاون الدول في كيفية منع الذكاء الاصطناعي من السيطرة على البشر.

أندرسون كوبر: هل تعتقد أن الطبيعة البشرية لن تشجع قائدًا ما أو حكومة ما على الاعتقاد بقدرتهم على السيطرة عليها، سواء كان ذلك ممكنًا أم لا؟

جيفري هينتون: حسنًا، لدينا مثال جيد في الولايات المتحدة لحكومة مصممة على السيطرة عليه. لا أعتقد أن هذا سينجح. قد ينجح هذا ضد دول أخرى، لكن عندما يصبح الذكاء الاصطناعي أذكى من البشر، فلن ينجح الأمر. فكرة أن البشر بحاجة إلى الهيمنة والذكاء الاصطناعي بحاجة إلى الخضوع، هي فكرة تكنولوجية لا أعتقد أنها ستنجح عندما يصبح أذكى منا بكثير.

أندرسون كوبر: هل تؤمن حقًا.. هل ما زلت تعتقد أن احتمال القضاء على البشر بواسطة الذكاء الاصطناعي ممكن بنسبة 10 إلى 20٪؟

جيفري هينتون: بالتأكيد. إذا لم نفعل ذلك، إذا لم نتمكن من إيجاد حل لكيفية بقاءنا على قيد الحياة وهم أذكى منا بكثير وأقوى منا بكثير، فسنكون في مأزق.

أندرسون كوبر: ما رأيك.. أعني، من المذهل بالنسبة لي أن هذه التكنولوجيا تُغير الأمور بالفعل، لكن موجة التغيير العارمة التي سنشهدها قريبًا، والتي نراها بالفعل، يديرها أشخاص غير منتخبين. هؤلاء أشخاص، كما تعلم، يجنون مليارات الدولارات من هذا. لم ينتخبهم أحدٌ قط. لم يكن هناك إجماعٌ على أن هذا، نعم، مفيدٌ للبشرية. هل تعتقد أن الشخص العادي، وأنا منهم، يدرك ما سيحدث هنا؟

جيفري هينتون: لا، أعتقد أنهم لا يدركون. وأعتقد أنه من المهم أن يفهم الجمهور ذلك. نحن بحاجة إلى ضغطٍ مضادٍّ على خبراء التكنولوجيا الذين يدعون إلى إلغاء أي لوائح تنظيمية للذكاء الاصطناعي، كما نحتاج إلى أن تفهم الدول ضرورة تعاونها في كيفية تجنب التهديد الوجودي.

أندرسون كوبر: ما رأيك في تأثير ذلك على المبادرة؟ لديّ طفلان في الثالثة والخامسة. أنا قلق جدًا بشأن العالم الذي سيعيشونه بعد 10 سنوات. عندما تتفوق الآلات في كل شيء على البشر، ما هي المبادرة التي تدفع الناس للسعي ليصبحوا بارعين في شيء ما؟

جيفري هينتون: من المعروف عن الأمهات أنهن يهتممن بأطفالهن اهتمامًا حقيقيًا، ويبذلن قصارى جهدهن لجعل حياتهم ممتعة، ولينموا ويحققوا كامل إمكاناتهم. لذا، إذا كان لدينا ذكاء اصطناعي فائق الذكاء يعتني بنا، فقد نتمكن من تحقيق الشيء نفسه.

أندرسون كوبر: جيفري هينتون، من الرائع فعلًا الحديث معك. شكرًا لك.

جيفري هينتون: شكرًا لك.
اشترك بقناتنا على يوتيوب:
http://bit.ly/2DmSE61

شاهد المزيد عبر موقعنا:
https://arabic.cnn.com/videos

Комментарии

Информация по комментариям в разработке

Похожие видео

  • О нас
  • Контакты
  • Отказ от ответственности - Disclaimer
  • Условия использования сайта - TOS
  • Политика конфиденциальности

video2dn Copyright © 2023 - 2025

Контакты для правообладателей [email protected]