万网注册的域名有福了,背靠阿里这个大金主,最近推出了不少有用的功能,甩出新网之类的域名注册商不止一条街了。朋友之前一直使用DNSPod和花生壳来构筑VPN内网的域名解析,可TPLINK自带的路由器花生壳功能太不稳定了,DNSPod也拒绝加入那些免费的二级域名了,只能想看看有没有办法在他已有的域名上实现DDNS的二级域名解析了。凑巧看见万网和阿里云推…
# 使用 Go + Ollama 构建本地大模型知识库问答系统 ## 背景介绍 企业里总会有大量私有文档需要处理——技术手册、合同、会议纪要、产品说明。把这些丢给云端 API 吧,担心数据泄露;不管它们吧,又浪费了手里的大模型能力。这是一个很实际的痛点。 过去几年,开源大模型生态长得很快。Ollama 的出现让在本地跑大模型变成了一件门槛很低的事。…
# Go 语言调用 OpenAI API 实战指南 ## 背景 大语言模型现在火得不行,OpenAI 的 API 基本上是开发者接触 AI 的第一选择。Go 语言写起并发来顺手,部署也简单,用它来调 OpenAI API 是个挺自然的选择。 这篇文章讲讲怎么用 Go 调用 OpenAI API,从环境配置到代码跑通,带你写一个自己的聊天机器人。 #…
# 如何使用 LangChain 构建企业级 RAG 应用:完整指南 ## 背景介绍 企业里想让 AI 用上内部知识库,这事儿说难也难,说简单也简单。传统做法是让 LLM 直接训练企业数据——成本高不说,数据更新还麻烦。RAG(检索增强生成)出来之后,这个问题才算真正有了解法。 RAG 的思路其实挺直接:先把企业文档转成向量存起来,用户提问的时候先…
背景介绍大语言模型火起来之后,越来越多的企业想把 AI 能力塞进自己的业务系统里。LangChain 是目前做 LLM 应用最流行的框架,组件丰富,文档也全。FastAPI 则是 Python 生态里性能不错的 Web 框架,写 API 很顺手,还能自动生成文档。这篇文章不讲虚的,直接上代码,手把手教你用 LangChain + FastAPI 搭…
# 使用 LangChain + Ollama 构建本地 RAG 知识问答系统 ## 背景 企业用 AI 时最头疼的事是什么?数据不敢往外送。文档堆成山,想让 AI 看完给个答案,结果 API 调用成本高到肉疼,离线环境更是想都别想。 以前唯一的办法是把文档内容硬塞进 prompt,可几千页的资料怎么办?一条条复制粘贴非把人逼疯不可。 RAG(Re…
在大型语言模型(LLM)快速发展的今天,如何让 AI 模型理解并回答私有知识库中的问题成为了一个重要课题。RAG(Retrieval Augmented Generation,检索增强生成)技术正是解决这一问题的核心方案。传统的 LLM 虽然具备强大的生成能力,但其知识受限于训练数据,无法直接访问最新的或私有的信息。 RAG 通过结合向量检索和 L…
使用 Ollama 在本地运行 LLM 进行代码审查 代码审查是软件开发中的常规环节,但人工审查效率低、主观性强。云端 AI 审查工具又存在隐私顾虑。 Ollama 是一个开源工具,能让用户在本地机器上跑大语言模型,不用联网,不用交 API 费用,代码也不会离开你的电脑。 为什么需要本地 LLM 代码审查 把代码发给云端 API 有几个麻烦: 隐私…
一、背景介绍企业在做 AI 应用时,常会遇到一个实际问题:怎么让大语言模型回答关于企业内部文档的问题?总不能把敏感文件上传到第三方 API 吧,微调模型又太贵,通用模型又答不对。这时候 RAG(检索增强生成)就派上用场了。简单来说,就是先从文档里找到相关内容,然后把内容和问题一起发给大模型,让它根据找到的内容来回答。整个过程不用改模型参数,部署起来…
# 使用 OpenAI Function Calling 实现 AI 智能体与外部系统集成 ## 背景介绍 做 AI 应用的人大多遇到过这种尴尬:ChatGPT 虽然能说会道,但它只认训练数据里的东西。你问它"今天北京天气怎么样",它只能摊手说知识截止到 2024 年,不知道实时天气。 Function Calling(函数调用)就是为了解决这个问…
基于 LangChain 实现 RAG 知识库问答系统:完整指南背景介绍大语言模型(LLM)很强,但让它回答私有知识库里的问题,一直是个工程难题。直接把所有文档喂给 LLM 不太现实——知识可能过时,覆盖不了特定领域,而且模型还会编答案。检索增强生成(Retrieval-Augmented Generation,RAG) 是目前最流行的解决方案。简…