# 使用 Python + OpenAI API 实现自动化代码审查 代码审查是软件开发的重要环节,能帮助发现潜在 bug、提升代码质量、促进团队知识共享。但传统人工审查效率低、主观性强、难以规模化。随着大语言模型的发展,AI 已经具备理解代码逻辑、识别潜在问题、提供改进建议的能力。本文介绍如何使用 Python 调用 OpenAI API,实现自…
# 使用 Qwen3 + LangChain 实现 Function Calling 构建智能聊天机器人 ## 背景介绍 大语言模型(LLM)技术发展很快,AI 聊天机器人已经不只是简单的问答了。现在的趋势是让 AI 能够调用外部工具,完成天气查询、数据库操作、API 调用这些实际任务。Function Calling 就是实现这个能力的关键技术。…
# 用 LangChain + Ollama 在本地跑一个 RAG 问答系统 你有没有遇到过这种情况:电脑里存了几百份文档,想找某个具体信息却只能用 Ctrl+F 一个个搜?复制一大段给 AI,结果它根本不知道你在说什么。 这些问题可以用 RAG(检索增强生成)来解决。简单说就是让 AI 在回答问题前,先去你的文档里找相关信息,然后把找到的内容一起…
深入讲解如何使用 Go 语言基于 Ollama 构建支持 ReAct 模式和 Function Calling 的本地 LLM Agent,包含完整代码示例和实战案例。
如果你经常调用 OpenAI API,应该会发现一个很现实的问题:对话越来越长,响应越来越慢,钱包也越来越空。每次请求都要把之前的上下文重新处理一遍,模型根本不管你之前说过什么。这种重复劳动不仅浪费时间,还浪费钱。 OpenAI 推出的 Prompt Caching(提示缓存)就是来解决这个问题的。把已经处理过的内容缓存起来,后续请求直接复用,不用…
# 让LLM稳定输出JSON:结构化提示词实战指南 ## 背景介绍 在使用大型语言模型(LLM)进行开发时,我们经常需要让模型输出结构化的数据格式,比如JSON。JSON不仅是程序内部数据交换的标准格式,也是API响应、配置文件、数据存储的基础。然而,直接让LLM输出JSON时,经常会遇到各种问题:输出格式不稳定、混入markdown代码块标记、包…
# LLM Function Calling 实战指南:让 AI 模型调用外部工具 ## 背景介绍 大语言模型的能力边界在哪里?早期的 GPT 模型只能生成文本,无法获取实时信息,也无法执行具体操作。但现在,Function Calling 功能让 LLM 获得了"动手能力"——它可以根据用户需求调用外部 API、查询数据库、执行计算,甚至操作其他…
## 背景介绍 开发过程中,我们经常需要和 GPT 模型打交道。网页版 ChatGPT 那种内容逐字冒出来的体验确实很爽,但用 API 调用时,默认是等模型生成完整个回复才给你。这就有问题了——等一个几千字的长回答,那段时间只能盯着空白屏幕干等。 流式输出(Server-Sent Events,简称 SSE)能解决这个问题。服务器边生成边发,客户端…
## 背景介绍 大语言模型(LLM)现在能说会写,但它们有个致命缺陷:知识会过期,而且只能"动嘴"不能"动手"。你想让它查个天气、执行个操作?门都没有。 Function Calling(函数调用)技术就是为了解决这个痛点。它让 AI 能够主动调用外部函数,获取实时数据、执行特定操作。换句话说,AI 不再只是个聊天机器,而变成了能真正干活的智能代理…
# 使用 Ollama 在本地运行大模型 + OpenWebUI 搭建私人 AI 助手完整指南 ## 背景 调用 OpenAI、Claude 这些云端大模型 API 确实方便,但有个问题始终让人膈应:隐私。把自己的数据发送到第三方服务器,说不担心那是假的。还有网络延迟、API 账单、以及某天服务突然不可用的风险。 所以最近越来越多人在聊「本地大模型…