Logo video2dn
  • Сохранить видео с ютуба
  • Категории
    • Музыка
    • Кино и Анимация
    • Автомобили
    • Животные
    • Спорт
    • Путешествия
    • Игры
    • Люди и Блоги
    • Юмор
    • Развлечения
    • Новости и Политика
    • Howto и Стиль
    • Diy своими руками
    • Образование
    • Наука и Технологии
    • Некоммерческие Организации
  • О сайте

Скачать или смотреть Using Software + Hardware Optimization to Enhance AI Inference Acceleration on Arm NPU

  • Arm Software Developers
  • 2021-12-17
  • 1001
Using Software + Hardware Optimization to Enhance AI Inference Acceleration on Arm NPU
Arm DevSummitDeepliteMachine LearningEthos NPU
  • ok logo

Скачать Using Software + Hardware Optimization to Enhance AI Inference Acceleration on Arm NPU бесплатно в качестве 4к (2к / 1080p)

У нас вы можете скачать бесплатно Using Software + Hardware Optimization to Enhance AI Inference Acceleration on Arm NPU или посмотреть видео с ютуба в максимальном доступном качестве.

Для скачивания выберите вариант из формы ниже:

  • Информация по загрузке:

Cкачать музыку Using Software + Hardware Optimization to Enhance AI Inference Acceleration on Arm NPU бесплатно в формате MP3:

Если иконки загрузки не отобразились, ПОЖАЛУЙСТА, НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если у вас возникли трудности с загрузкой, пожалуйста, свяжитесь с нами по контактам, указанным в нижней части страницы.
Спасибо за использование сервиса video2dn.com

Описание к видео Using Software + Hardware Optimization to Enhance AI Inference Acceleration on Arm NPU

Many techniques have been proposed to both accelerate and compress trained Deep Neural Networks (DNNs) for deployment on resource-constrained edge devices.

Software-oriented approaches such as pruning and quantization have become commonplace, and several optimized hardware designs have been proposed to improve inference performance. An emerging question for developers is: how can we combine and automate these optimizations together?

In this session, we examine a real-world use-case where DNN design space exploration was used with the optimized Ethos-U55 NPU to leverage SW and HW optimizations in one workflow.

We will show how to automatically produce optimized TensorFlow Lite CNN model architectures, and speed up the dev-to-deployment process. We'll present insights from testing Arm's Vela compiler, FVP and configurable NPU to boost throughput 1.7x and reduce cycle count by 60% for image recognition tasks, enabling complex models typically not available for inference on edge devices.

Tech talk resources: https://github.com/Deeplite

#ArmDevSummit #Deeplite #MachineLearning

Комментарии

Информация по комментариям в разработке

Похожие видео

  • О нас
  • Контакты
  • Отказ от ответственности - Disclaimer
  • Условия использования сайта - TOS
  • Политика конфиденциальности

video2dn Copyright © 2023 - 2025

Контакты для правообладателей [email protected]