深入掌握 LLM Function Calling 技术,本文通过完整的 Python 代码示例详细演示如何让 AI 大模型调用外部函数,实现查天气、股票价格、数学计算、数据库操作等实用功能,是开发者构建智能 AI 助手的完整指南。
# Go + Ollama 实现本地 RAG 应用:从 Embedding 到问答 ## 背景介绍 大语言模型(LLM)很火,但让它回答私有数据里的问题没那么简单。直接微调模型成本太高,而且容易出现幻觉——模型会一本正经地编造答案。RAG(检索增强生成)提供了一条更务实的路径:先从知识库里检索相关文档,再让 LLM 基于这些文档生成答案。 Olla…
# Kubernetes HPA 完整指南:基于自定义指标实现自动弹性伸缩 ## 背景介绍 云原生架构中,应用流量波动是常态。白天高峰期可能需要 10 个 Pod,凌晨低谷期 2 个 Pod 就够了。人工扩容响应滞后,既可能因资源不足导致服务降级,也可能因资源过剩造成成本浪费。 Kubernetes 提供了 Horizontal Pod Autos…
# Kubernetes VPA 垂直 Pod 自动扩缩容实战指南:智能调整容器资源配额 ## 背景 Kubernetes 集群中,容器的资源配额(CPU 和内存)设置是个老难题。配高了浪费资源,配低了 Pod 被 OOM Killer 杀掉。Horizontal Pod Autoscaler(HPA)只能调副本数,改不了单个容器的大小。 VPA …
# 使用 LangChain 构建基于 RAG 的企业知识库问答系统 在企业里待过的朋友都知道这样一个场景:员工遇到问题,得在成堆的 PDF、Word 文档、公司 Wiki 里翻来翻去,运气好的话能搜到点有用的,运气不好就只能在各个群里追问。这种情况一多,查找信息的成本就成了个大问题。 关键词搜索的局限很明显——你得用准确的词才能找到东西,同一个意…
背景介绍大语言模型(LLM)现在应用很广,但直接用它有一些问题:知识库是固定的、专业知识不够、偶尔会胡扯。检索增强生成(RAG)技术把检索和生成结合起来,先从知识库里找相关信息,再把这些内容喂给 LLM,这样生成的答案更靠谱。以前的 RAG 方案基本都调用 OpenAI API,得花钱,还有数据隐私的破事。这两年开源出了不少能在本地跑的方案。Oll…
# Kubernetes HPA 基于 Prometheus 自定义指标实现自动扩缩容实战指南 ## 背景介绍 Kubernetes 的 Horizontal Pod Autoscaler(HPA)默认只能基于 CPU 和内存利用率来调整副本数。这在很多场景下不够用。比如消息处理服务,可能需要根据队列深度来伸缩;Web 服务可能更关心请求延迟或错误…
在大语言模型(LLM)蓬勃发展的今天,如何有效地与模型交互成为了每个开发者必须面对的核心问题。Prompt Engineering(提示工程)作为一门新兴学科,专注于研究如何设计最优的提示词来引导模型产生期望的输出。可以说,掌握了提示工程,就等于拥有了在 AI 时代高效解决问题的能力。Few-Shot Learning(少样本学习)是 Prompt…