分类: 未分类

140 篇文章

Go语言实战:让LLM调用你的函数
# Go语言实战:让LLM调用你的函数 你有没有想过,为什么AI助手只能"说话",却不能帮你做事?问它天气,它只能告诉你"我没法查天气";让它帮你记个待办事项,它也只能说"抱歉,我做不到"。这感觉就像雇了一个全能秘书,却只能看不能用。 Function Calling改变了这个局面。这是大语言模型的一个"超能力"——它能理解用户想要什么操作,然后帮…
使用 LangChain 构建结构化 Prompt 管理系统
# 使用 LangChain 构建结构化 Prompt 管理系统 ## 背景介绍 这两年 Prompt 工程火得不行。随着大语言模型越来越便宜、越来越好用,怎么跟这些模型有效对话变成了每个开发者必须面对的问题。 我之前做个项目,需要同时维护几十个不同的 Prompt。每个都有自己的模板、变量和输出格式要求。手动管理这些 Prompt 简直是个灾难—…
如何使用 Prompt Engineering 提升 LLM 代码生成质量
# 如何使用 Prompt Engineering 提升 LLM 代码生成质量 ## 背景介绍 大语言模型(LLM)火了这几年,AI 辅助编程早就不是什么新鲜事了。GitHub Copilot、Claude Code 这些工具大家都见过,有人用得飞起,有人却总觉得差点意思。同样是 GPT-4,为什么有人能嗖嗖嗖生成高质量代码,有人却总是得到一堆需要…
使用 Go 语言构建本地 LLM 聊天机器人:Ollama + Go 完全实战指南
## 背景介绍 AI 火得很快,大语言模型几乎成了每个开发者的必备工具。但用 OpenAI API 要花钱,网络访问也不太稳定。Ollama 解决了这个问题——它让你在本地就能跑各种开源 LLM,完全免费,而且数据都在自己机器上,隐私也有保障。 Ollama 支持 llama2、mistral、qwen、deepseek 这些主流模型,一条命令就能…
Go + Redis 实现轻量级分布式锁:实战指南
# Go + Redis 实现轻量级分布式锁:实战指南 分布式系统中,多个服务节点同时访问共享资源,怎么保证数据一致性?这是一个老生常谈的问题。单机环境下,语言自带的并发原语就能搞定,但到了分布式场景,得靠分布式锁出马。 ## 背景介绍 分布式锁是分布式系统中保证资源互斥访问的机制。说白了,就是同一时刻只允许一个客户端操作某个资源。 举两个常见的例…
Python 实现 LLM 流式输出实战指南
# Python 实现 LLM 流式输出实战指南 在大语言模型应用火遍全球的今天,响应速度直接决定了用户体验。同步调用 API 的痛点很明显:用户对着空白屏幕等半天,才能看到完整回复。10 秒的等待时间漫长得像一个世纪。流式输出技术就是为了解决这个问题诞生的——模型边生成边返回,用户看着字一个个蹦出来,感知上快多了。 流式输出的本质是利用 SSE …
使用 LangChain + Ollama 构建本地 RAG 知识库问答系统
# 使用 LangChain + Ollama 构建本地 RAG 知识库问答系统 ## 背景介绍 企业日常运营中会积累大量内部文档:技术手册、会议记录、产品说明、操作指南等等。这些文档散落在各个文件夹和系统里,查找起来非常麻烦。传统的关键词搜索只能匹配字面内容,比如搜"服务器"就找不到"主机"相关的内容,导致经常漏掉真正相关的信息。 大语言模型出现…
构建智能 LLM Agent:函数调用实战指南
# 构建智能 LLM Agent:函数调用实战指南 ## 背景介绍 大语言模型发展到现在,光能"说"已经不够了,怎样让它真正"做"事情?函数调用(Function Calling)就是解决这个问题的关键技术。 说白了,函数调用让 LLM 可以和外部系统打交道——查实时数据、执行操作,不再局限于训练数据里那点过时的东西。 这篇文章会手把手教你搭建一个…
使用 LangChain + ChromaDB 从零构建本地知识库问答系统
背景介绍大语言模型很强,但这东西有个致命问题:它懂的东西全是训练数据里的。你公司内部的文档、产品手册、个人笔记——这些私有数据它根本看不到。这就是 RAG(检索增强生成)要解决的问题。简单说就是把私有数据先存到向量数据库里,用户提问的时候,系统去数据库里找相关内容,然后把找到的内容和问题一起喂给大模型,让它基于真实资料来回答。这篇文章手把手教你在本…