万网注册的域名有福了,背靠阿里这个大金主,最近推出了不少有用的功能,甩出新网之类的域名注册商不止一条街了。朋友之前一直使用DNSPod和花生壳来构筑VPN内网的域名解析,可TPLINK自带的路由器花生壳功能太不稳定了,DNSPod也拒绝加入那些免费的二级域名了,只能想看看有没有办法在他已有的域名上实现DDNS的二级域名解析了。凑巧看见万网和阿里云推…
# 使用 LangChain + Ollama 构建本地 RAG 应用 ## 背景介绍 大语言模型很聪明,但它不知道你公司内部的事情。你问它"我们上季度的技术方案是什么",它只能道歉。这就是 RAG(检索增强生成)要解决的问题——先从你的知识库里找到相关文档,再把内容喂给模型让它回答。 搭建 RAG 通常得依赖云端 API,数据要上传到 OpenA…
# 使用 LangChain + DeepSeek 构建企业级 RAG 问答系统 ## 背景介绍 在企业场景中,我们经常需要让 AI 模型回答基于私有文档的问题。比如让 AI 阅读公司的内部知识库、产品文档、技术手册,然后回答员工的各种问题。这种需求催生了 RAG(Retrieval Augmented Generation,检索增强生成)架构。 …
# 使用 LangChain + Ollama 构建本地私有知识库问答系统 在企业日常运营中,我们经常需要处理大量的内部文档、技术手册、会议记录等文本数据。传统的关键词搜索方式往往无法准确理解用户的真实查询意图,导致检索结果不尽如人意。随着大语言模型技术的发展,基于语义理解的智能问答系统成为了可能。 然而,将敏感的内部文档上传到第三方云服务存在数据…
背景介绍很多企业在引入 AI 时会遇到一个尴尬的问题:想让 AI 回答内部文档、产品手册里的内容,但直接喂给大模型不现实——上下文窗口就那么大,而且把敏感数据上传也不太安全。这时候 RAG(检索增强生成) 就派上用场了。思路其实很简单:先把文档拆成小段,编码成向量存进数据库;用户提问时,先从数据库里找出最相关的几段,然后把问题和这些段落一起交给大模…
# 使用 Go + Ollama 构建本地大模型知识库问答系统 ## 背景介绍 企业里总会有大量私有文档需要处理——技术手册、合同、会议纪要、产品说明。把这些丢给云端 API 吧,担心数据泄露;不管它们吧,又浪费了手里的大模型能力。这是一个很实际的痛点。 过去几年,开源大模型生态长得很快。Ollama 的出现让在本地跑大模型变成了一件门槛很低的事。…
# Go 语言调用 OpenAI API 实战指南 ## 背景 大语言模型现在火得不行,OpenAI 的 API 基本上是开发者接触 AI 的第一选择。Go 语言写起并发来顺手,部署也简单,用它来调 OpenAI API 是个挺自然的选择。 这篇文章讲讲怎么用 Go 调用 OpenAI API,从环境配置到代码跑通,带你写一个自己的聊天机器人。 #…
# 如何使用 LangChain 构建企业级 RAG 应用:完整指南 ## 背景介绍 企业里想让 AI 用上内部知识库,这事儿说难也难,说简单也简单。传统做法是让 LLM 直接训练企业数据——成本高不说,数据更新还麻烦。RAG(检索增强生成)出来之后,这个问题才算真正有了解法。 RAG 的思路其实挺直接:先把企业文档转成向量存起来,用户提问的时候先…
背景介绍大语言模型火起来之后,越来越多的企业想把 AI 能力塞进自己的业务系统里。LangChain 是目前做 LLM 应用最流行的框架,组件丰富,文档也全。FastAPI 则是 Python 生态里性能不错的 Web 框架,写 API 很顺手,还能自动生成文档。这篇文章不讲虚的,直接上代码,手把手教你用 LangChain + FastAPI 搭…
# 使用 LangChain + Ollama 构建本地 RAG 知识问答系统 ## 背景 企业用 AI 时最头疼的事是什么?数据不敢往外送。文档堆成山,想让 AI 看完给个答案,结果 API 调用成本高到肉疼,离线环境更是想都别想。 以前唯一的办法是把文档内容硬塞进 prompt,可几千页的资料怎么办?一条条复制粘贴非把人逼疯不可。 RAG(Re…
在大型语言模型(LLM)快速发展的今天,如何让 AI 模型理解并回答私有知识库中的问题成为了一个重要课题。RAG(Retrieval Augmented Generation,检索增强生成)技术正是解决这一问题的核心方案。传统的 LLM 虽然具备强大的生成能力,但其知识受限于训练数据,无法直接访问最新的或私有的信息。 RAG 通过结合向量检索和 L…