Aliyun ddns client
万网注册的域名有福了,背靠阿里这个大金主,最近推出了不少有用的功能,甩出新网之类的域名注册商不止一条街了。朋友之前一直使用DNSPod和花生壳来构筑VPN内网的域名解析,可TPLINK自带的路由器花生壳功能太不稳定了,DNSPod也拒绝加入那些免费的二级域名了,只能想看看有没有办法在他已有的域名上实现DDNS的二级域名解析了。凑巧看见万网和阿里云推…
使用 LangChain + Ollama 构建本地知识库问答系统
使用 LangChain + Ollama 构建本地知识库问答系统 很多团队都有这样的困扰:文档散落在各处,关键时刻找不到想要的内容。关键词搜索不智能,看字面对不上意思,只能手动翻文档。 RAG 技术提供了另一种思路:把文档转成向量,用语义检索找到相关内容,再让 LLM 根据这些内容生成答案。这两年很火,很多云服务都支持。 但把文档发给第三方总让人…
Kubernetes HPA 自动扩缩容实战指南:从配置到最佳实践
## 背景介绍 云原生架构中,应用的弹性扩缩容能力是保障服务稳定性的核心要素。Kubernetes提供了Horizontal Pod Autoscaler(HPA)来实现Pod的自动扩缩容功能。然而,实际配置过程中会遇到各种问题:扩缩容策略不生效、指标采集失败、扩缩容震荡等。本文系统介绍Kubernetes HPA的配置方法和最佳实践。 ## 问题…
使用 LangChain 构建基于 RAG 的本地知识库问答系统
# 使用 LangChain 构建基于 RAG 的本地知识库问答系统 ## 背景介绍 在企业日常运营中,我们积累了大量内部文档、技术手册、产品说明、会议纪要等非结构化数据。但当需要从中查找特定信息时,却只能在海量文件中进行繁琐的人工检索。传统的方式是通过关键词搜索或者人工查阅,效率低下,而且难以处理语义相关的查询。 检索增强生成(Retrieval…
Kubernetes HPA 基于 Prometheus 自定义指标实现自动扩缩容实战指南
# Kubernetes HPA 基于 Prometheus 自定义指标实现自动扩缩容实战指南 ## 背景介绍 Kubernetes 的 Horizontal Pod Autoscaler(HPA)默认只能基于 CPU 和内存利用率来调整副本数。这在很多场景下不够用。比如消息处理服务,可能需要根据队列深度来伸缩;Web 服务可能更关心请求延迟或错误…
使用 LangChain 实现 PDF 文档问答系统
# 使用 LangChain 实现 PDF 文档问答系统 ## 背景介绍 工作中,我们经常要和大量的 PDF 文档打交道。技术文档、论文报告、合同协议……从这些文件里找信息,真是件麻烦事。传统的关键词搜索听起来美好,但实际操作起来,要么搜不到想要的内容,要么返回一堆八竿子打不着的结果。 大语言模型出来以后,RAG(检索增强生成)架构给这个问题提供了…
使用 LangGraph 构建 ReAct Agent 实战指南
# 使用 LangGraph 构建 ReAct Agent 实战指南 ## 背景介绍 大型语言模型应用领域有个老问题:AI 只能生成文字,没办法直接跟外部系统打交道。用户问"今天北京天气怎么样"或者"苹果股价多少",LLM 训练数据截止了,回答不上来。 解决办法是让模型自己调用工具。ReAct(Reasoning + Acting)模式就是干这个的…
使用 Ollama 在本地运行 LLM 进行代码审查 – 完整实战指南
使用 Ollama 在本地运行 LLM 进行代码审查 代码审查是软件开发中的常规环节,但人工审查效率低、主观性强。云端 AI 审查工具又存在隐私顾虑。 Ollama 是一个开源工具,能让用户在本地机器上跑大语言模型,不用联网,不用交 API 费用,代码也不会离开你的电脑。 为什么需要本地 LLM 代码审查 把代码发给云端 API 有几个麻烦: 隐私…
Prompt Engineering 高级技巧:Few-Shot Learning 实战指南
在大语言模型(LLM)蓬勃发展的今天,如何有效地与模型交互成为了每个开发者必须面对的核心问题。Prompt Engineering(提示工程)作为一门新兴学科,专注于研究如何设计最优的提示词来引导模型产生期望的输出。可以说,掌握了提示工程,就等于拥有了在 AI 时代高效解决问题的能力。Few-Shot Learning(少样本学习)是 Prompt…
使用 Ollama + LangChain 构建本地文档问答系统
使用 Ollama + LangChain 构建本地文档问答系统 背景介绍 日常工作中有大量技术文档、论文和内部知识库需要处理。关键词搜索的痛点在于无法理解语义查询——搜"如何安装软件"和"安装步骤"本应返回相同结果,但传统搜索引擎办不到。 云端大语言模型能力很强,数据隐私是个问题。把内部文档上传到第三方 A…
windows用AMD RX 6700XT本地部署大模型
ollama就是用llama.cpp作为后端引擎来封装了模型下载、版本管理和API服务等便捷功能,ollama对旧的AMD显卡支持不好,这里干脆就切换到直接使用llama.cpp来在旧的AMD RTX6700显卡上本地部署大模型。 一、安装llama.cpp winget install llama.cpp 二、下载模型 1. 在魔搭社区的模型库那…