万网注册的域名有福了,背靠阿里这个大金主,最近推出了不少有用的功能,甩出新网之类的域名注册商不止一条街了。朋友之前一直使用DNSPod和花生壳来构筑VPN内网的域名解析,可TPLINK自带的路由器花生壳功能太不稳定了,DNSPod也拒绝加入那些免费的二级域名了,只能想看看有没有办法在他已有的域名上实现DDNS的二级域名解析了。凑巧看见万网和阿里云推…
在大型语言模型(LLM)快速发展的今天,如何让 AI 模型理解并回答私有知识库中的问题成为了一个重要课题。RAG(Retrieval Augmented Generation,检索增强生成)技术正是解决这一问题的核心方案。传统的 LLM 虽然具备强大的生成能力,但其知识受限于训练数据,无法直接访问最新的或私有的信息。 RAG 通过结合向量检索和 L…
Kubernetes VPA 垂直自动扩缩容完整指南:让 Pod 资源分配更智能 背景介绍 在 Kubernetes 集群中,Pod 的资源配额(CPU 和内存)设置是个难题。配置过高会造成资源浪费,配置过低则会导致容器被 OOM Kill 或 CPU 限流。很多人靠人工估算容器的资源需求,既不准又累人。 Vertical Pod Autoscal…
# Kubernetes HPA 基于自定义指标的自动扩缩容完全指南 ## 背景介绍 在云原生应用架构中,容器弹性伸缩能力已经成为保障服务稳定性和资源利用效率的核心要素。Kubernetes 作为容器编排的事实标准,提供了 Horizontal Pod Autoscaler(HPA)来实现 Pod 自动扩缩容。但默认的 HPA 只支持 CPU 和内…
使用 Ollama 在本地运行 LLM 进行代码审查 代码审查是软件开发中的常规环节,但人工审查效率低、主观性强。云端 AI 审查工具又存在隐私顾虑。 Ollama 是一个开源工具,能让用户在本地机器上跑大语言模型,不用联网,不用交 API 费用,代码也不会离开你的电脑。 为什么需要本地 LLM 代码审查 把代码发给云端 API 有几个麻烦: 隐私…
一、背景介绍企业在做 AI 应用时,常会遇到一个实际问题:怎么让大语言模型回答关于企业内部文档的问题?总不能把敏感文件上传到第三方 API 吧,微调模型又太贵,通用模型又答不对。这时候 RAG(检索增强生成)就派上用场了。简单来说,就是先从文档里找到相关内容,然后把内容和问题一起发给大模型,让它根据找到的内容来回答。整个过程不用改模型参数,部署起来…
# 使用 OpenAI Function Calling 实现 AI 智能体与外部系统集成 ## 背景介绍 做 AI 应用的人大多遇到过这种尴尬:ChatGPT 虽然能说会道,但它只认训练数据里的东西。你问它"今天北京天气怎么样",它只能摊手说知识截止到 2024 年,不知道实时天气。 Function Calling(函数调用)就是为了解决这个问…
基于 LangChain 实现 RAG 知识库问答系统:完整指南背景介绍大语言模型(LLM)很强,但让它回答私有知识库里的问题,一直是个工程难题。直接把所有文档喂给 LLM 不太现实——知识可能过时,覆盖不了特定领域,而且模型还会编答案。检索增强生成(Retrieval-Augmented Generation,RAG) 是目前最流行的解决方案。简…
在大语言模型(LLM)蓬勃发展的今天,如何有效地与模型交互成为了每个开发者必须面对的核心问题。Prompt Engineering(提示工程)作为一门新兴学科,专注于研究如何设计最优的提示词来引导模型产生期望的输出。可以说,掌握了提示工程,就等于拥有了在 AI 时代高效解决问题的能力。Few-Shot Learning(少样本学习)是 Prompt…
# 使用 LangChain + Ollama 构建本地知识库问答系统 ## 背景介绍 企业内部有大量文档:技术手册、操作指南、会议记录、产品说明。这些东西靠关键词搜索很难找准——用户打个"怎么部署",可能返回十条不相关的结果。更麻烦的是,把这些内部资料发给第三方 API 存在数据泄露风险,老板第一个不答应。 大语言模型出现后,局面变了。检索增强生…
# Kubernetes HPA 水平 Pod 自动扩缩容实战指南 ## 背景介绍 在现代云原生架构中,应用的流量往往呈现出明显的波峰波谷特征。白天业务高峰期可能需要数十个 Pod 来支撑用户请求,而凌晨低谷期可能只需要三五个实例就足够运行。传统的人工手动调整 Pod 副本数的方式不仅效率低下,还容易因为响应延迟导致用户体验下降或者资源浪费。 Ku…