Logo video2dn
  • Сохранить видео с ютуба
  • Категории
    • Музыка
    • Кино и Анимация
    • Автомобили
    • Животные
    • Спорт
    • Путешествия
    • Игры
    • Люди и Блоги
    • Юмор
    • Развлечения
    • Новости и Политика
    • Howto и Стиль
    • Diy своими руками
    • Образование
    • Наука и Технологии
    • Некоммерческие Организации
  • О сайте

Скачать или смотреть Adversarial attacks on AI - Andrew Ng - deeplearning.ai - Coursera

  • Pierre GUILLOU
  • 2019-06-15
  • 297
Adversarial attacks on AI - Andrew Ng - deeplearning.ai - Coursera
Andrew NgDeep LearningAIAdversarial attacksMahmood SharifGoogleCourseraMOOC
  • ok logo

Скачать Adversarial attacks on AI - Andrew Ng - deeplearning.ai - Coursera бесплатно в качестве 4к (2к / 1080p)

У нас вы можете скачать бесплатно Adversarial attacks on AI - Andrew Ng - deeplearning.ai - Coursera или посмотреть видео с ютуба в максимальном доступном качестве.

Для скачивания выберите вариант из формы ниже:

  • Информация по загрузке:

Cкачать музыку Adversarial attacks on AI - Andrew Ng - deeplearning.ai - Coursera бесплатно в формате MP3:

Если иконки загрузки не отобразились, ПОЖАЛУЙСТА, НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если у вас возникли трудности с загрузкой, пожалуйста, свяжитесь с нами по контактам, указанным в нижней части страницы.
Спасибо за использование сервиса video2dn.com

Описание к видео Adversarial attacks on AI - Andrew Ng - deeplearning.ai - Coursera

One last example, this one from a group of researchers at Google, is if you show a AI system this picture, it will say this is a banana. But what the researchers did was design a sticker, so that if you place it into the scene, it misclassifies this banana. Let me show you the video that the researchers made. Shown on the left is the classifier input and shown on the right is the classifier output, where it thinks is very likely a banana and maybe there's a small chance is a slug. Looks okay. Let's see what happens when you put a sticker or put a small patch into the scene. When the sticker is placed in the scene, the AI system now is almost certain that this picture is a picture of a toaster. One interesting aspect of this work is that the authors of this paper cited at the bottom of this slide, actually published in their paper a picture of their sticker. So, that anyone in the world could hypothetically download their paper, print out the sticker, and stick it somewhere if they want to fool an AI system into thinking there's a toaster where there isn't. Now, I do not support anyone attacking AI systems to fool them into thinking that toasters were there or none, but this shows unfortunately how the ease with which one could hypothetically attack these AI systems.

Комментарии

Информация по комментариям в разработке

Похожие видео

  • О нас
  • Контакты
  • Отказ от ответственности - Disclaimer
  • Условия использования сайта - TOS
  • Политика конфиденциальности

video2dn Copyright © 2023 - 2025

Контакты для правообладателей [email protected]