Aliyun ddns client
万网注册的域名有福了,背靠阿里这个大金主,最近推出了不少有用的功能,甩出新网之类的域名注册商不止一条街了。朋友之前一直使用DNSPod和花生壳来构筑VPN内网的域名解析,可TPLINK自带的路由器花生壳功能太不稳定了,DNSPod也拒绝加入那些免费的二级域名了,只能想看看有没有办法在他已有的域名上实现DDNS的二级域名解析了。凑巧看见万网和阿里云推…
从零构建 RAG 系统:让 AI 回答基于你自己的知识库
# 从零构建 RAG 系统:让 AI 回答基于你自己的知识库 在大语言模型快速发展的今天,很多开发者都面临一个共性问题:如何让 AI 根据特定领域的知识来回答问题?通用模型虽然强大,但在专业领域常常"一本正经地胡说八道"。这时候,RAG(检索增强生成)技术就成了最佳解决方案。 ## 背景介绍 ### 什么是 RAG? RAG 的核心思想是:不让 L…
OpenAI Prompt Caching 完全指南:如何大幅降低 API 调用成本和延迟
如果你经常调用 OpenAI API,应该会发现一个很现实的问题:对话越来越长,响应越来越慢,钱包也越来越空。每次请求都要把之前的上下文重新处理一遍,模型根本不管你之前说过什么。这种重复劳动不仅浪费时间,还浪费钱。 OpenAI 推出的 Prompt Caching(提示缓存)就是来解决这个问题的。把已经处理过的内容缓存起来,后续请求直接复用,不用…
LLM API 实战:用 Python 构建智能问答系统
# LLM API 实战:用 Python 构建智能问答系统 大语言模型火遍全球已经有两年了。GPT、Claude、通义千问这些名字你应该都听过。这些模型能理解自然语言,能生成内容,用来作客服、知识库问答、内容创作都很合适。 直接调 API 是最省事的办法。发个 HTTP 请求就能拿到回复,本文以 OpenAI 兼容 API 为例,手把手教你从零搭…
让LLM稳定输出JSON:结构化提示词实战指南
# 让LLM稳定输出JSON:结构化提示词实战指南 ## 背景介绍 在使用大型语言模型(LLM)进行开发时,我们经常需要让模型输出结构化的数据格式,比如JSON。JSON不仅是程序内部数据交换的标准格式,也是API响应、配置文件、数据存储的基础。然而,直接让LLM输出JSON时,经常会遇到各种问题:输出格式不稳定、混入markdown代码块标记、包…
本地部署 RAG 系统:使用 Ollama 和 LangChain 构建私有知识库
# 本地部署 RAG 系统:使用 Ollama 和 LangChain 构建私有知识库 ## 背景介绍 很多企业在搭建 AI 应用时都会遇到一个两难选择:用云端 API 吧,数据安全和隐私是问题;自己训练模型吧,资源和成本又扛不住。我自己也在这条路上踩过不少坑,所以今天想聊聊一个相对折中的方案——在本地跑 RAG。 RAG 的全称是 Retriev…
从零构建本地 RAG 问答系统:Ollama + LangChain 完全指南
大语言模型虽然能说会道,但它懂的东西全是训练时塞进去的。你要是问它你们公司的报销流程、某个产品的技术参数,它大概率会瞎编——这就是所谓的「幻觉」。所以很多公司做私有知识库的时候,都不用那些云端的 API,就是怕数据泄露。 RAG(检索增强生成)就是来解决这个问题的。简单说就是把用户的提问和从知识库拉来的相关资料一起喂给大模型,让它基于真实内容回答,…
Python + LangChain 本地 RAG 实战:让 AI 学你的知识
# Python + LangChain 本地 RAG 实战:让 AI 学你的知识 Ollama 跑通了,下一个问题是:怎么让它学会你自己的东西? 单纯跑模型,AI 一问三不知。你扔给它一份公司文档,它该不知道还是不知道。这时候该 RAG 上场了——Retrieval Augmented Generation,检索增强生成。听起来高大上其实就是那么…
LLM Function Calling 实战指南:让 AI 模型调用外部工具
# LLM Function Calling 实战指南:让 AI 模型调用外部工具 ## 背景介绍 大语言模型的能力边界在哪里?早期的 GPT 模型只能生成文本,无法获取实时信息,也无法执行具体操作。但现在,Function Calling 功能让 LLM 获得了"动手能力"——它可以根据用户需求调用外部 API、查询数据库、执行计算,甚至操作其他…
使用 Go + LLM API 构建智能代码审查助手
背景介绍代码审查是软件开发中避免 bug 的最后一道防线。我刚入行的时候,觉得代码审查特别繁琐——看来看去都是那几类问题,有时候 Review 多了注意力就散了,同一个问题前几次能注意到,后面就麻木了。传统的人工审查有几个明显的缺点:不同人的标准不一致,容易把问题当成「风格差异」忽略掉;而且纯手工审查真的很耗时间,特别是那种几百行的文件,看久了眼睛…
Go 语言实现 LLM Function Calling:构建智能 AI 助手实战指南
Go 语言实现 LLM Function Calling:构建智能 AI 助手实战指南背景介绍在 AI 应用开发领域,大语言模型(LLM)不仅能理解和生成文本,还能通过 Function Calling(函数调用)机制与外部系统交互。Function Calling 是 LLM 能力的重要扩展,让 AI 能够根据用户意图自动调用预定义的函数,获取实…