# 使用 LangChain 构建基于 RAG 的本地知识库问答系统 ## 背景介绍 在企业日常运营中,我们积累了大量内部文档、技术手册、产品说明、会议纪要等非结构化数据。但当需要从中查找特定信息时,却只能在海量文件中进行繁琐的人工检索。传统的方式是通过关键词搜索或者人工查阅,效率低下,而且难以处理语义相关的查询。 检索增强生成(Retrieval…
# Kubernetes HPA 基于 Prometheus 自定义指标实现自动扩缩容实战指南 ## 背景介绍 Kubernetes 的 Horizontal Pod Autoscaler(HPA)默认只能基于 CPU 和内存利用率来调整副本数。这在很多场景下不够用。比如消息处理服务,可能需要根据队列深度来伸缩;Web 服务可能更关心请求延迟或错误…
# 使用 LangChain 实现 PDF 文档问答系统 ## 背景介绍 工作中,我们经常要和大量的 PDF 文档打交道。技术文档、论文报告、合同协议……从这些文件里找信息,真是件麻烦事。传统的关键词搜索听起来美好,但实际操作起来,要么搜不到想要的内容,要么返回一堆八竿子打不着的结果。 大语言模型出来以后,RAG(检索增强生成)架构给这个问题提供了…
# 使用 LangGraph 构建 ReAct Agent 实战指南 ## 背景介绍 大型语言模型应用领域有个老问题:AI 只能生成文字,没办法直接跟外部系统打交道。用户问"今天北京天气怎么样"或者"苹果股价多少",LLM 训练数据截止了,回答不上来。 解决办法是让模型自己调用工具。ReAct(Reasoning + Acting)模式就是干这个的…
使用 Ollama 在本地运行 LLM 进行代码审查 代码审查是软件开发中的常规环节,但人工审查效率低、主观性强。云端 AI 审查工具又存在隐私顾虑。 Ollama 是一个开源工具,能让用户在本地机器上跑大语言模型,不用联网,不用交 API 费用,代码也不会离开你的电脑。 为什么需要本地 LLM 代码审查 把代码发给云端 API 有几个麻烦: 隐私…
在大语言模型(LLM)蓬勃发展的今天,如何有效地与模型交互成为了每个开发者必须面对的核心问题。Prompt Engineering(提示工程)作为一门新兴学科,专注于研究如何设计最优的提示词来引导模型产生期望的输出。可以说,掌握了提示工程,就等于拥有了在 AI 时代高效解决问题的能力。Few-Shot Learning(少样本学习)是 Prompt…
使用 Ollama + LangChain 构建本地文档问答系统 背景介绍 日常工作中有大量技术文档、论文和内部知识库需要处理。关键词搜索的痛点在于无法理解语义查询——搜"如何安装软件"和"安装步骤"本应返回相同结果,但传统搜索引擎办不到。 云端大语言模型能力很强,数据隐私是个问题。把内部文档上传到第三方 A…
ollama就是用llama.cpp作为后端引擎来封装了模型下载、版本管理和API服务等便捷功能,ollama对旧的AMD显卡支持不好,这里干脆就切换到直接使用llama.cpp来在旧的AMD RTX6700显卡上本地部署大模型。 一、安装llama.cpp winget install llama.cpp 二、下载模型 1. 在魔搭社区的模型库那…
在golang世界中,复杂的包依赖是一个比较大的问题。明明代码中只引用了某个库的一些函数,但依赖库可能会一大堆。依赖库越多,最后编译生成的二进制文件越大,怎么能在保证程序运行的时候,设计一个结构良好,尽量减少依赖的库呢?这个时候monorepo成了可行的解决方案,那么什么是monorepo? Monorepo是将多个相关的项目、模块(如前端应用、后…
最近写的一个自动化程序需要go-playwright支持,但开发和部署环境是RockyLinux9, playwright安装依赖的时候是基于Ubuntu的,下面是在Rockey Linux环境下的解决办法。 安装Distrobox dnf install epel-release dnf install distrobox 创建ubuntu容器 …