## 背景介绍 在人工智能快速发展的今天,大语言模型(LLM)已经具备了强的自然语言理解和生成能力。然而,单纯依靠语言模型本身,我们很难让它执行具体的操作任务,比如查询数据库、调用外部API、发送邮件或者操作文件系统。这就是 Function Calling(函数调用)技术出现的背景。 Function Calling 是 OpenAI 在 202…
# 使用 LangChain + ChromaDB 构建本地 RAG 知识库问答系统 ## 背景介绍 企业日常运营中会产生大量的内部文档、技术手册、会议记录。当员工需要从这些海量文档中查找特定信息时,传统的关键词搜索效果往往不理想——它无法理解查询的语义意图,也无法处理自然语言提问。 检索增强生成(Retrieval-Augmented Gener…
深入掌握 LLM Function Calling 技术,本文通过完整的 Python 代码示例详细演示如何让 AI 大模型调用外部函数,实现查天气、股票价格、数学计算、数据库操作等实用功能,是开发者构建智能 AI 助手的完整指南。
# Go + Ollama 实现本地 RAG 应用:从 Embedding 到问答 ## 背景介绍 大语言模型(LLM)很火,但让它回答私有数据里的问题没那么简单。直接微调模型成本太高,而且容易出现幻觉——模型会一本正经地编造答案。RAG(检索增强生成)提供了一条更务实的路径:先从知识库里检索相关文档,再让 LLM 基于这些文档生成答案。 Olla…
# 使用 LangChain 构建基于 RAG 的企业知识库问答系统 在企业里待过的朋友都知道这样一个场景:员工遇到问题,得在成堆的 PDF、Word 文档、公司 Wiki 里翻来翻去,运气好的话能搜到点有用的,运气不好就只能在各个群里追问。这种情况一多,查找信息的成本就成了个大问题。 关键词搜索的局限很明显——你得用准确的词才能找到东西,同一个意…
背景介绍大语言模型(LLM)现在应用很广,但直接用它有一些问题:知识库是固定的、专业知识不够、偶尔会胡扯。检索增强生成(RAG)技术把检索和生成结合起来,先从知识库里找相关信息,再把这些内容喂给 LLM,这样生成的答案更靠谱。以前的 RAG 方案基本都调用 OpenAI API,得花钱,还有数据隐私的破事。这两年开源出了不少能在本地跑的方案。Oll…