万网注册的域名有福了,背靠阿里这个大金主,最近推出了不少有用的功能,甩出新网之类的域名注册商不止一条街了。朋友之前一直使用DNSPod和花生壳来构筑VPN内网的域名解析,可TPLINK自带的路由器花生壳功能太不稳定了,DNSPod也拒绝加入那些免费的二级域名了,只能想看看有没有办法在他已有的域名上实现DDNS的二级域名解析了。凑巧看见万网和阿里云推…
# Go 语言调用 OpenAI API 实战指南 ## 背景 大语言模型现在火得不行,OpenAI 的 API 基本上是开发者接触 AI 的第一选择。Go 语言写起并发来顺手,部署也简单,用它来调 OpenAI API 是个挺自然的选择。 这篇文章讲讲怎么用 Go 调用 OpenAI API,从环境配置到代码跑通,带你写一个自己的聊天机器人。 #…
# Kubernetes HPA 基于 Prometheus 自定义指标的自动扩缩容实战指南 ## 背景介绍 在现代云原生架构中,应用的自动扩缩容已经成为保障服务稳定性和资源利用率的核心能力。Kubernetes 提供了 Horizontal Pod Autoscaler(HPA)来实现 Pod 的水平扩缩容。默认情况下,HPA 支持基于 CPU …
$(cat /root/.openclaw/workspace/hpa-prometheus-article.md)
# 如何使用 LangChain 构建企业级 RAG 应用:完整指南 ## 背景介绍 企业里想让 AI 用上内部知识库,这事儿说难也难,说简单也简单。传统做法是让 LLM 直接训练企业数据——成本高不说,数据更新还麻烦。RAG(检索增强生成)出来之后,这个问题才算真正有了解法。 RAG 的思路其实挺直接:先把企业文档转成向量存起来,用户提问的时候先…
背景介绍大语言模型火起来之后,越来越多的企业想把 AI 能力塞进自己的业务系统里。LangChain 是目前做 LLM 应用最流行的框架,组件丰富,文档也全。FastAPI 则是 Python 生态里性能不错的 Web 框架,写 API 很顺手,还能自动生成文档。这篇文章不讲虚的,直接上代码,手把手教你用 LangChain + FastAPI 搭…
# 使用 LangChain + Ollama 构建本地 RAG 知识问答系统 ## 背景 企业用 AI 时最头疼的事是什么?数据不敢往外送。文档堆成山,想让 AI 看完给个答案,结果 API 调用成本高到肉疼,离线环境更是想都别想。 以前唯一的办法是把文档内容硬塞进 prompt,可几千页的资料怎么办?一条条复制粘贴非把人逼疯不可。 RAG(Re…
在大型语言模型(LLM)快速发展的今天,如何让 AI 模型理解并回答私有知识库中的问题成为了一个重要课题。RAG(Retrieval Augmented Generation,检索增强生成)技术正是解决这一问题的核心方案。传统的 LLM 虽然具备强大的生成能力,但其知识受限于训练数据,无法直接访问最新的或私有的信息。 RAG 通过结合向量检索和 L…
Kubernetes VPA 垂直自动扩缩容完整指南:让 Pod 资源分配更智能 背景介绍 在 Kubernetes 集群中,Pod 的资源配额(CPU 和内存)设置是个难题。配置过高会造成资源浪费,配置过低则会导致容器被 OOM Kill 或 CPU 限流。很多人靠人工估算容器的资源需求,既不准又累人。 Vertical Pod Autoscal…
# Kubernetes HPA 基于自定义指标的自动扩缩容完全指南 ## 背景介绍 在云原生应用架构中,容器弹性伸缩能力已经成为保障服务稳定性和资源利用效率的核心要素。Kubernetes 作为容器编排的事实标准,提供了 Horizontal Pod Autoscaler(HPA)来实现 Pod 自动扩缩容。但默认的 HPA 只支持 CPU 和内…
使用 Ollama 在本地运行 LLM 进行代码审查 代码审查是软件开发中的常规环节,但人工审查效率低、主观性强。云端 AI 审查工具又存在隐私顾虑。 Ollama 是一个开源工具,能让用户在本地机器上跑大语言模型,不用联网,不用交 API 费用,代码也不会离开你的电脑。 为什么需要本地 LLM 代码审查 把代码发给云端 API 有几个麻烦: 隐私…