标签: Ollama

1 篇文章

使用 Ollama + LangChain + Chroma 构建本地 RAG 应用完整指南
背景介绍大语言模型(LLM)现在应用很广,但直接用它有一些问题:知识库是固定的、专业知识不够、偶尔会胡扯。检索增强生成(RAG)技术把检索和生成结合起来,先从知识库里找相关信息,再把这些内容喂给 LLM,这样生成的答案更靠谱。以前的 RAG 方案基本都调用 OpenAI API,得花钱,还有数据隐私的破事。这两年开源出了不少能在本地跑的方案。Oll…