万网注册的域名有福了,背靠阿里这个大金主,最近推出了不少有用的功能,甩出新网之类的域名注册商不止一条街了。朋友之前一直使用DNSPod和花生壳来构筑VPN内网的域名解析,可TPLINK自带的路由器花生壳功能太不稳定了,DNSPod也拒绝加入那些免费的二级域名了,只能想看看有没有办法在他已有的域名上实现DDNS的二级域名解析了。凑巧看见万网和阿里云推…
# LLM API 实战:用 Python 构建智能问答系统 大语言模型火遍全球已经有两年了。GPT、Claude、通义千问这些名字你应该都听过。这些模型能理解自然语言,能生成内容,用来作客服、知识库问答、内容创作都很合适。 直接调 API 是最省事的办法。发个 HTTP 请求就能拿到回复,本文以 OpenAI 兼容 API 为例,手把手教你从零搭…
# 让LLM稳定输出JSON:结构化提示词实战指南 ## 背景介绍 在使用大型语言模型(LLM)进行开发时,我们经常需要让模型输出结构化的数据格式,比如JSON。JSON不仅是程序内部数据交换的标准格式,也是API响应、配置文件、数据存储的基础。然而,直接让LLM输出JSON时,经常会遇到各种问题:输出格式不稳定、混入markdown代码块标记、包…
# 本地部署 RAG 系统:使用 Ollama 和 LangChain 构建私有知识库 ## 背景介绍 很多企业在搭建 AI 应用时都会遇到一个两难选择:用云端 API 吧,数据安全和隐私是问题;自己训练模型吧,资源和成本又扛不住。我自己也在这条路上踩过不少坑,所以今天想聊聊一个相对折中的方案——在本地跑 RAG。 RAG 的全称是 Retriev…
大语言模型虽然能说会道,但它懂的东西全是训练时塞进去的。你要是问它你们公司的报销流程、某个产品的技术参数,它大概率会瞎编——这就是所谓的「幻觉」。所以很多公司做私有知识库的时候,都不用那些云端的 API,就是怕数据泄露。 RAG(检索增强生成)就是来解决这个问题的。简单说就是把用户的提问和从知识库拉来的相关资料一起喂给大模型,让它基于真实内容回答,…
# Python + LangChain 本地 RAG 实战:让 AI 学你的知识 Ollama 跑通了,下一个问题是:怎么让它学会你自己的东西? 单纯跑模型,AI 一问三不知。你扔给它一份公司文档,它该不知道还是不知道。这时候该 RAG 上场了——Retrieval Augmented Generation,检索增强生成。听起来高大上其实就是那么…
# LLM Function Calling 实战指南:让 AI 模型调用外部工具 ## 背景介绍 大语言模型的能力边界在哪里?早期的 GPT 模型只能生成文本,无法获取实时信息,也无法执行具体操作。但现在,Function Calling 功能让 LLM 获得了"动手能力"——它可以根据用户需求调用外部 API、查询数据库、执行计算,甚至操作其他…
背景介绍代码审查是软件开发中避免 bug 的最后一道防线。我刚入行的时候,觉得代码审查特别繁琐——看来看去都是那几类问题,有时候 Review 多了注意力就散了,同一个问题前几次能注意到,后面就麻木了。传统的人工审查有几个明显的缺点:不同人的标准不一致,容易把问题当成「风格差异」忽略掉;而且纯手工审查真的很耗时间,特别是那种几百行的文件,看久了眼睛…
Go 语言实现 LLM Function Calling:构建智能 AI 助手实战指南背景介绍在 AI 应用开发领域,大语言模型(LLM)不仅能理解和生成文本,还能通过 Function Calling(函数调用)机制与外部系统交互。Function Calling 是 LLM 能力的重要扩展,让 AI 能够根据用户意图自动调用预定义的函数,获取实…
在人工智能技术飞速发展的今天,大型语言模型(LLM)已经成为推动各行各业智能化转型的核心力量。然而,当我们需要处理企业内部的私密文档、技术手册或者业务数据时,使用云端 API 服务就会面临数据泄露的风险。为什么需要本地知识库问答系统Ollama 是一个开源项目,让用户能够在自己的电脑上运行各种主流的大语言模型,包括 Llama 2、Mistral、…
## 背景介绍 开发过程中,我们经常需要和 GPT 模型打交道。网页版 ChatGPT 那种内容逐字冒出来的体验确实很爽,但用 API 调用时,默认是等模型生成完整个回复才给你。这就有问题了——等一个几千字的长回答,那段时间只能盯着空白屏幕干等。 流式输出(Server-Sent Events,简称 SSE)能解决这个问题。服务器边生成边发,客户端…