万网注册的域名有福了,背靠阿里这个大金主,最近推出了不少有用的功能,甩出新网之类的域名注册商不止一条街了。朋友之前一直使用DNSPod和花生壳来构筑VPN内网的域名解析,可TPLINK自带的路由器花生壳功能太不稳定了,DNSPod也拒绝加入那些免费的二级域名了,只能想看看有没有办法在他已有的域名上实现DDNS的二级域名解析了。凑巧看见万网和阿里云推…
# 使用 Python 构建本地 RAG 知识库问答系统 ## 背景介绍 在人工智能快速发展的今天,大语言模型(LLM)已经能够处理各种复杂的自然语言任务。然而,直接让 LLM 回答私有领域的问题往往面临两大困境:第一,模型的知识截止日期限制导致无法获取最新信息;第二,模型的训练数据中可能不包含企业或个人独有的专业文档。这就是检索增强生成——先把相…
在 AI 应用开发中,Prompt 是与大语言模型交互的核心界面。一个好的提示词可以让模型输出更准确,而一个糟糕的提示词则可能导致模型给出无关甚至错误的回答。 ## 问题描述 在实际项目中,我们经常会遇到: 1. 输出格式不稳定 2. 信息不够准确(幻觉问题) 3. 指令遵循度低 4. 角色一致性差 ## 详细步骤 ### 步骤一:理解提示词的基本…
## 背景 GPT-4、Claude 这几个模型出来以后,调用它们的能力不再是大厂的专利。OpenAI 开放的 API 接口,让任何一个会写 Python 的人都能把这些语言模型接入自己的项目。 但真刀真枪做起来,问题就来了:密钥怎么管?错误怎么catch?多轮对话怎么实现?内容质量怎么控制?这些破事不处理好,系统根本没法上线。 这篇文章,直接上代…
背景介绍市面上的 PDF 问答工具不少,但大多数需要将文档上传到云端处理。这带来了两个问题:首先,涉及敏感信息的文档不适合上传;其次,API 调用需要付费,长期使用成本不低。Ollama 的出现改变了这一局面。它是一个开源的本地大模型运行框架,支持在个人电脑上运行各种开源 LLM,包括 Llama、Qwen、Mistral 等主流模型。结合 Lan…
## 背景介绍 在日常开发中,为代码添加注释是一件费时费力的工作。很多开发者,要么是因为赶工期,要么是觉得写注释太枯燥,最终导致代码缺乏必要的文档。当团队协作或几个月后回顾代码时,理解逻辑变成了一项艰巨的任务。 有没有一种方法,可以利用大语言模型自动为代码生成注释?本文将介绍如何使用 Go 语言结合 LLM API,构建一个实用的代码注释生成工具。…
# 基于本地 LLM 构建 RAG 系统:完整指南与实践 大型语言模型这两年很火,用云端 API 调用虽然方便,但问题也不少。数据要传出去隐私没保障,网络不稳定时响应慢吞吞,长期使用成本也下不来。有没有一种方法能既享受 AI 的能力,又把数据留在自己手里?答案是搭建本地 RAG 系统。 ## 什么是 RAG RAG(Retrieval Augmen…
背景介绍很多企业在做内部文档问答时,第一反应是把文件丢给 ChatGPT 或者 Claude。这确实方便,但把公司内部资料上传到第三方服务这件事,足以让法务部门跳起来。数据隐私这事儿不是闹着玩的。Ollama 出现之后,情况变了。我们可以在自己的电脑上跑大语言模型,配合 LangChain 的 RAG 框架,整个问答系统完全可以私有化部署。本文记录…
# Go 语言调用 OpenAI API 实现流式响应的完整指南 ## 背景介绍 在当今 AI 应用开发领域,与大语言模型(LLM)的交互已经成为许多应用的核心功能。OpenAI 的 GPT 系列模型提供了强大的自然语言处理能力,而流式响应(Streaming)是提升用户体验的关键技术之一。相比于等待完整响应一次性返回,流式响应可以让用户实时看到模…
# 如何使用 Python + LangChain 构建基于 LLM 的本地知识库问答系统 ## 背景介绍 很多公司都有大量的内部文档:技术手册、FAQ、产品说明之类的。问题是,用传统关键词搜索来查这些资料,效果通常不怎么样。用户搜"电脑开不了机",系统可能返回"显示器不显示"——虽然有点关系,但不完全是一回事。 大语言模型出现以后,情况变了。RA…
# 使用 Python + OpenAI API 实现自动化代码审查 代码审查是软件开发的重要环节,能帮助发现潜在 bug、提升代码质量、促进团队知识共享。但传统人工审查效率低、主观性强、难以规模化。随着大语言模型的发展,AI 已经具备理解代码逻辑、识别潜在问题、提供改进建议的能力。本文介绍如何使用 Python 调用 OpenAI API,实现自…