标签: Ollama

5 篇文章

用 LangChain + Ollama 在本地跑一个 RAG 问答系统
# 用 LangChain + Ollama 在本地跑一个 RAG 问答系统 你有没有遇到过这种情况:电脑里存了几百份文档,想找某个具体信息却只能用 Ctrl+F 一个个搜?复制一大段给 AI,结果它根本不知道你在说什么。 这些问题可以用 RAG(检索增强生成)来解决。简单说就是让 AI 在回答问题前,先去你的文档里找相关信息,然后把找到的内容一起…
使用 Ollama 在本地运行大模型 + OpenWebUI 搭建私人 AI 助手完整指南
# 使用 Ollama 在本地运行大模型 + OpenWebUI 搭建私人 AI 助手完整指南 ## 背景 调用 OpenAI、Claude 这些云端大模型 API 确实方便,但有个问题始终让人膈应:隐私。把自己的数据发送到第三方服务器,说不担心那是假的。还有网络延迟、API 账单、以及某天服务突然不可用的风险。 所以最近越来越多人在聊「本地大模型…
Go + Ollama 实现本地 RAG 应用:从 Embedding 到问答
# Go + Ollama 实现本地 RAG 应用:从 Embedding 到问答 ## 背景介绍 大语言模型(LLM)很火,但让它回答私有数据里的问题没那么简单。直接微调模型成本太高,而且容易出现幻觉——模型会一本正经地编造答案。RAG(检索增强生成)提供了一条更务实的路径:先从知识库里检索相关文档,再让 LLM 基于这些文档生成答案。 Olla…
使用 Ollama + LangChain + Chroma 构建本地 RAG 应用完整指南
背景介绍大语言模型(LLM)现在应用很广,但直接用它有一些问题:知识库是固定的、专业知识不够、偶尔会胡扯。检索增强生成(RAG)技术把检索和生成结合起来,先从知识库里找相关信息,再把这些内容喂给 LLM,这样生成的答案更靠谱。以前的 RAG 方案基本都调用 OpenAI API,得花钱,还有数据隐私的破事。这两年开源出了不少能在本地跑的方案。Oll…