万网注册的域名有福了,背靠阿里这个大金主,最近推出了不少有用的功能,甩出新网之类的域名注册商不止一条街了。朋友之前一直使用DNSPod和花生壳来构筑VPN内网的域名解析,可TPLINK自带的路由器花生壳功能太不稳定了,DNSPod也拒绝加入那些免费的二级域名了,只能想看看有没有办法在他已有的域名上实现DDNS的二级域名解析了。凑巧看见万网和阿里云推…
背景介绍代码审查是软件开发中避免 bug 的最后一道防线。我刚入行的时候,觉得代码审查特别繁琐——看来看去都是那几类问题,有时候 Review 多了注意力就散了,同一个问题前几次能注意到,后面就麻木了。传统的人工审查有几个明显的缺点:不同人的标准不一致,容易把问题当成「风格差异」忽略掉;而且纯手工审查真的很耗时间,特别是那种几百行的文件,看久了眼睛…
Go 语言实现 LLM Function Calling:构建智能 AI 助手实战指南背景介绍在 AI 应用开发领域,大语言模型(LLM)不仅能理解和生成文本,还能通过 Function Calling(函数调用)机制与外部系统交互。Function Calling 是 LLM 能力的重要扩展,让 AI 能够根据用户意图自动调用预定义的函数,获取实…
在人工智能技术飞速发展的今天,大型语言模型(LLM)已经成为推动各行各业智能化转型的核心力量。然而,当我们需要处理企业内部的私密文档、技术手册或者业务数据时,使用云端 API 服务就会面临数据泄露的风险。为什么需要本地知识库问答系统Ollama 是一个开源项目,让用户能够在自己的电脑上运行各种主流的大语言模型,包括 Llama 2、Mistral、…
## 背景介绍 开发过程中,我们经常需要和 GPT 模型打交道。网页版 ChatGPT 那种内容逐字冒出来的体验确实很爽,但用 API 调用时,默认是等模型生成完整个回复才给你。这就有问题了——等一个几千字的长回答,那段时间只能盯着空白屏幕干等。 流式输出(Server-Sent Events,简称 SSE)能解决这个问题。服务器边生成边发,客户端…
## 背景介绍 大语言模型在代码生成领域已经展现出强大的能力。GitHub Copilot、Claude Code 这些工具已经成为开发者的日常助手。但很多人使用 LLM 生成代码时,只是简单输入一句话描述需求,结果往往不尽如人意。代码可能缺少错误处理,可能不符合项目规范,可能功能实现不完整。 问题出在 Prompt 的设计上。简单的自然语言描述缺…
使用 Python 从零构建一个轻量级 AI Agent:支持工具调用和思维链 背景介绍 过去一年里,AI Agent 成为大语言模型应用领域最热门的话题之一。从 AutoGPT 到 Claude Agent,从单智能体到多智能体协作,各种框架层出不穷。但对于大多数开发者来说,这些框架要么过于复杂,要么依赖特定的云服务,学习成本不低。 我最近在项目…
# 使用 LangChain + Ollama 构建本地知识库问答系统 ## 背景介绍 在企业日常运营中,我们经常需要处理大量的内部文档、技术手册、会议记录等文本数据。传统的关键词搜索方式往往难以理解用户的真实查询意图,返回的结果也不够精准。随着大语言模型(LLM)技术的快速发展,基于语义理解的智能问答系统成为了可能。 然而,将企业内部数据上传到第…
## 背景介绍 大语言模型(LLM)现在能说会写,但它们有个致命缺陷:知识会过期,而且只能"动嘴"不能"动手"。你想让它查个天气、执行个操作?门都没有。 Function Calling(函数调用)技术就是为了解决这个痛点。它让 AI 能够主动调用外部函数,获取实时数据、执行特定操作。换句话说,AI 不再只是个聊天机器,而变成了能真正干活的智能代理…
# 使用 Python + LangChain 构建本地 RAG 问答系统 ## 背景介绍 大语言模型(LLM)现在很火,但直接用它有个很现实的问题:模型的知识都是训练数据喂出来的,没法及时更新,也没法让它理解你公司内部的那些保密文档。 这时候 RAG(检索增强生成)就派上用场了。简单说,就是先把你的文档转换成向量存起来,有人问问题的时候,系统去向…
# 使用 Ollama 在本地运行大模型 + OpenWebUI 搭建私人 AI 助手完整指南 ## 背景 调用 OpenAI、Claude 这些云端大模型 API 确实方便,但有个问题始终让人膈应:隐私。把自己的数据发送到第三方服务器,说不担心那是假的。还有网络延迟、API 账单、以及某天服务突然不可用的风险。 所以最近越来越多人在聊「本地大模型…