Logo video2dn
  • Сохранить видео с ютуба
  • Категории
    • Музыка
    • Кино и Анимация
    • Автомобили
    • Животные
    • Спорт
    • Путешествия
    • Игры
    • Люди и Блоги
    • Юмор
    • Развлечения
    • Новости и Политика
    • Howto и Стиль
    • Diy своими руками
    • Образование
    • Наука и Технологии
    • Некоммерческие Организации
  • О сайте

Скачать или смотреть How to run Deepseek locally with Ollama

  • House of Logic blog
  • 2025-02-19
  • 144
How to run Deepseek locally with Ollama
DeepSeek r1Ollamaself hosted AIai homelabAI tutorialllmlocal llm
  • ok logo

Скачать How to run Deepseek locally with Ollama бесплатно в качестве 4к (2к / 1080p)

У нас вы можете скачать бесплатно How to run Deepseek locally with Ollama или посмотреть видео с ютуба в максимальном доступном качестве.

Для скачивания выберите вариант из формы ниже:

  • Информация по загрузке:

Cкачать музыку How to run Deepseek locally with Ollama бесплатно в формате MP3:

Если иконки загрузки не отобразились, ПОЖАЛУЙСТА, НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если у вас возникли трудности с загрузкой, пожалуйста, свяжитесь с нами по контактам, указанным в нижней части страницы.
Спасибо за использование сервиса video2dn.com

Описание к видео How to run Deepseek locally with Ollama

How to Setup DeepSeek locally with Ollama

This video shows how to setup DeepSeek r1, specifically the 1.5b model, in a local self hosted environment, using Ubuntu running on a virtual machine.
The same principles apply to the DeepSeek-R1 671b model, but as this is 400+GB, it was too big for the VM being used.

Note: The performance seen is not ideal, but this was an experiment to see if DeepSeek can run in a local virtualisation environment, and what the set up process looks like as it will be the same with better specification hardware.

Part 2 will cover the Open-WebUI that can be used to query the AI.

Chapters in this video:

00:00 Intro
00:49 Start of Setup
01:27 Ollama installation complete
02:10 Testing Ollama with curl
02:32 Configuring Ollama to run as a service
03:43 Testing Ollama is running with a browser
04:06 Pulling down the Deepseek model
05:03 Sending a prompt to the Deepseek model in Ollama with Postman
06:05 Performance of VM during execution
06:36 Response from DeepSeek AI
06:54 Outro

Useful Links:

https://github.com/HouseOfLogicGH/Oll...

Follow @HouseofLogicBlog or visit https://www.houseoflogic.co.uk for more tutorials and articles.

Комментарии

Информация по комментариям в разработке

Похожие видео

  • О нас
  • Контакты
  • Отказ от ответственности - Disclaimer
  • Условия использования сайта - TOS
  • Политика конфиденциальности

video2dn Copyright © 2023 - 2025

Контакты для правообладателей [email protected]