【OLLAMA+Langchain】RAG框架详解,RAG和Ollama本地大模型应用方法分享。利用本地大模型搭建私人助理。不用Fine-tuning就能实时更新大语言模型的数据库。

Описание к видео 【OLLAMA+Langchain】RAG框架详解,RAG和Ollama本地大模型应用方法分享。利用本地大模型搭建私人助理。不用Fine-tuning就能实时更新大语言模型的数据库。

让大模型帮你总结Youtube视频:   • 【大语言模型LLM总结Youtube内容】Gemini Pro API 实...  
Ollama本地部署大语言模型详解:   • 【Ollama 使用指南】详解开源大模型管理工具|15分钟了解ollama...  
本文的示例代码:https://colab.research.google.com/dri...

随着大模型的普及,实时更新大模型数据的需求越来越多。除开Fine-tuning,RAG成为了一个低成本,高效率的大模型和数据集成的框架。今天的视频,我来分享RAG的经典架构和工作流。以及通过一个例子,说明如何利用本地部署的大模型,在RAG框架下,搭建一个文档助理。

00:00-01:01 Open 开场介绍
01:02-02:21 Brief Intro RAG 简介
02:22-04:48 RAG Architecture&Workflow RAG 架构和工作流详解
04:49-13:24 Code Sharing & Demo 代码细节分享和演示

Комментарии

Информация по комментариям в разработке