# 从零构建个人知识库助手:基于 RAG 的本地文档问答系统实战 ## 背景介绍 在日常工作和学习中,我们会积累大量的文档资料:技术笔记、项目文档、会议记录、阅读笔记等。当这些文档散落在各个角落时,想要快速找到需要的信息就变得困难重重。虽然市面上有各种笔记软件和搜索工具,但它们通常只能进行简单的关键词匹配,无法真正理解我们的查询意图。 近年来,大语…
## 背景介绍 retrieval-augmented generation(检索增强生成,简称RAG)已经成为大模型应用的主流架构。与其让模型从预训练数据中硬编码知识,不如在运行时从外部知识库动态检索相关信息,然后交给大模型生成答案。这种方式有几个明显的好处:知识可以随时更新,不需要重新训练模型;回答可以引用真实的来源;特定领域的问题更容易控制。…
# 从零构建 RAG 系统:让 AI 回答基于你自己的知识库 在大语言模型快速发展的今天,很多开发者都面临一个共性问题:如何让 AI 根据特定领域的知识来回答问题?通用模型虽然强大,但在专业领域常常"一本正经地胡说八道"。这时候,RAG(检索增强生成)技术就成了最佳解决方案。 ## 背景介绍 ### 什么是 RAG? RAG 的核心思想是:不让 L…
# LLM API 实战:用 Python 构建智能问答系统 大语言模型火遍全球已经有两年了。GPT、Claude、通义千问这些名字你应该都听过。这些模型能理解自然语言,能生成内容,用来作客服、知识库问答、内容创作都很合适。 直接调 API 是最省事的办法。发个 HTTP 请求就能拿到回复,本文以 OpenAI 兼容 API 为例,手把手教你从零搭…
# 本地部署 RAG 系统:使用 Ollama 和 LangChain 构建私有知识库 ## 背景介绍 很多企业在搭建 AI 应用时都会遇到一个两难选择:用云端 API 吧,数据安全和隐私是问题;自己训练模型吧,资源和成本又扛不住。我自己也在这条路上踩过不少坑,所以今天想聊聊一个相对折中的方案——在本地跑 RAG。 RAG 的全称是 Retriev…
背景介绍代码审查是软件开发中避免 bug 的最后一道防线。我刚入行的时候,觉得代码审查特别繁琐——看来看去都是那几类问题,有时候 Review 多了注意力就散了,同一个问题前几次能注意到,后面就麻木了。传统的人工审查有几个明显的缺点:不同人的标准不一致,容易把问题当成「风格差异」忽略掉;而且纯手工审查真的很耗时间,特别是那种几百行的文件,看久了眼睛…
## 背景介绍 开发过程中,我们经常需要和 GPT 模型打交道。网页版 ChatGPT 那种内容逐字冒出来的体验确实很爽,但用 API 调用时,默认是等模型生成完整个回复才给你。这就有问题了——等一个几千字的长回答,那段时间只能盯着空白屏幕干等。 流式输出(Server-Sent Events,简称 SSE)能解决这个问题。服务器边生成边发,客户端…
使用 Python 从零构建一个轻量级 AI Agent:支持工具调用和思维链 背景介绍 过去一年里,AI Agent 成为大语言模型应用领域最热门的话题之一。从 AutoGPT 到 Claude Agent,从单智能体到多智能体协作,各种框架层出不穷。但对于大多数开发者来说,这些框架要么过于复杂,要么依赖特定的云服务,学习成本不低。 我最近在项目…
# 使用 LangChain + Ollama 构建本地知识库问答系统 ## 背景介绍 在企业日常运营中,我们经常需要处理大量的内部文档、技术手册、会议记录等文本数据。传统的关键词搜索方式往往难以理解用户的真实查询意图,返回的结果也不够精准。随着大语言模型(LLM)技术的快速发展,基于语义理解的智能问答系统成为了可能。 然而,将企业内部数据上传到第…
# 使用 Python + LangChain 构建本地 RAG 问答系统 ## 背景介绍 大语言模型(LLM)现在很火,但直接用它有个很现实的问题:模型的知识都是训练数据喂出来的,没法及时更新,也没法让它理解你公司内部的那些保密文档。 这时候 RAG(检索增强生成)就派上用场了。简单说,就是先把你的文档转换成向量存起来,有人问问题的时候,系统去向…