Logo video2dn
  • Сохранить видео с ютуба
  • Категории
    • Музыка
    • Кино и Анимация
    • Автомобили
    • Животные
    • Спорт
    • Путешествия
    • Игры
    • Люди и Блоги
    • Юмор
    • Развлечения
    • Новости и Политика
    • Howto и Стиль
    • Diy своими руками
    • Образование
    • Наука и Технологии
    • Некоммерческие Организации
  • О сайте

Скачать или смотреть Going Further with CUDA for Python Programmers

  • Jeremy Howard
  • 2024-02-12
  • 13914
Going Further with CUDA for Python Programmers
deep learningfastai
  • ok logo

Скачать Going Further with CUDA for Python Programmers бесплатно в качестве 4к (2к / 1080p)

У нас вы можете скачать бесплатно Going Further with CUDA for Python Programmers или посмотреть видео с ютуба в максимальном доступном качестве.

Для скачивания выберите вариант из формы ниже:

  • Информация по загрузке:

Cкачать музыку Going Further with CUDA for Python Programmers бесплатно в формате MP3:

Если иконки загрузки не отобразились, ПОЖАЛУЙСТА, НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если у вас возникли трудности с загрузкой, пожалуйста, свяжитесь с нами по контактам, указанным в нижней части страницы.
Спасибо за использование сервиса video2dn.com

Описание к видео Going Further with CUDA for Python Programmers

This technical talk by Jeremy Howard explores advanced programming techniques for maximizing performance when using CUDA with Python. The focus is on optimizing memory usage with a specific emphasis on effectively leveraging fast shared memory in CUDA. It assumes you have already watched this "Getting Started" video:    • Getting Started With CUDA for Python Progr...  

The video begins with foundational concepts by comparing shared memory to global memory and demonstrates strategies like tiling to address shared memory capacity limitations. It demonstrates core ideas through a matrix multiplication example.

Jeremy compares pure Python, Python with simulated 'shared memory', Numba, and raw CUDA implementations, using ChatGPT for guided code conversion. While initial Numba-based code may exhibit some overhead, it serves as a fast development pathway compared to raw CUDA.

Resources

The notebook for this lesson is in the "lecture5" folder at: https://github.com/cuda-mode/lectures. Special thanks to Kerem Turgutlu for help preparing it.

See also this video for more information about GPU memory optimisation:    • Lecture 4 Compute and Memory Basics   .

Timestamps

0:00 Introduction to Optimized Matrix Multiplication
12:04 Shared Memory Techniques for CUDA
20:12 Implementing Shared Memory Optimization in Python
42:15 Translating Python to CUDA and Performance Considerations
55:55 Numba: Bringing Python and CUDA Together
1:11:46 The Future of AI in Coding

Thanks to @wolpumba4099 for initial summary and timestamps.

Комментарии

Информация по комментариям в разработке

Похожие видео

  • О нас
  • Контакты
  • Отказ от ответственности - Disclaimer
  • Условия использования сайта - TOS
  • Политика конфиденциальности

video2dn Copyright © 2023 - 2025

Контакты для правообладателей [email protected]