万网注册的域名有福了,背靠阿里这个大金主,最近推出了不少有用的功能,甩出新网之类的域名注册商不止一条街了。朋友之前一直使用DNSPod和花生壳来构筑VPN内网的域名解析,可TPLINK自带的路由器花生壳功能太不稳定了,DNSPod也拒绝加入那些免费的二级域名了,只能想看看有没有办法在他已有的域名上实现DDNS的二级域名解析了。凑巧看见万网和阿里云推…
# 使用 LangGraph 构建 ReAct Agent 实战指南 ## 背景介绍 大型语言模型应用领域有个老问题:AI 只能生成文字,没办法直接跟外部系统打交道。用户问"今天北京天气怎么样"或者"苹果股价多少",LLM 训练数据截止了,回答不上来。 解决办法是让模型自己调用工具。ReAct(Reasoning + Acting)模式就是干这个的…
使用 Ollama 在本地运行 LLM 进行代码审查 代码审查是软件开发中的常规环节,但人工审查效率低、主观性强。云端 AI 审查工具又存在隐私顾虑。 Ollama 是一个开源工具,能让用户在本地机器上跑大语言模型,不用联网,不用交 API 费用,代码也不会离开你的电脑。 为什么需要本地 LLM 代码审查 把代码发给云端 API 有几个麻烦: 隐私…
在大语言模型(LLM)蓬勃发展的今天,如何有效地与模型交互成为了每个开发者必须面对的核心问题。Prompt Engineering(提示工程)作为一门新兴学科,专注于研究如何设计最优的提示词来引导模型产生期望的输出。可以说,掌握了提示工程,就等于拥有了在 AI 时代高效解决问题的能力。Few-Shot Learning(少样本学习)是 Prompt…
使用 Ollama + LangChain 构建本地文档问答系统 背景介绍 日常工作中有大量技术文档、论文和内部知识库需要处理。关键词搜索的痛点在于无法理解语义查询——搜"如何安装软件"和"安装步骤"本应返回相同结果,但传统搜索引擎办不到。 云端大语言模型能力很强,数据隐私是个问题。把内部文档上传到第三方 A…
ollama就是用llama.cpp作为后端引擎来封装了模型下载、版本管理和API服务等便捷功能,ollama对旧的AMD显卡支持不好,这里干脆就切换到直接使用llama.cpp来在旧的AMD RTX6700显卡上本地部署大模型。 一、安装llama.cpp winget install llama.cpp 二、下载模型 1. 在魔搭社区的模型库那…
在golang世界中,复杂的包依赖是一个比较大的问题。明明代码中只引用了某个库的一些函数,但依赖库可能会一大堆。依赖库越多,最后编译生成的二进制文件越大,怎么能在保证程序运行的时候,设计一个结构良好,尽量减少依赖的库呢?这个时候monorepo成了可行的解决方案,那么什么是monorepo? Monorepo是将多个相关的项目、模块(如前端应用、后…
最近写的一个自动化程序需要go-playwright支持,但开发和部署环境是RockyLinux9, playwright安装依赖的时候是基于Ubuntu的,下面是在Rockey Linux环境下的解决办法。 安装Distrobox dnf install epel-release dnf install distrobox 创建ubuntu容器 …
在代码开发过程中,可能有些标签创建了但不建议使用,批量移除远程仓库上的标签成为一个麻烦的事情,下面提供了在windows平台上批量删除标签的方式。 Windows上的推荐方法 查看所有远程标签 git ls-remote --tags origin 删除除'EXCLUDE_TAG1|EXCLUDE_TAG2|...'之外的所有标…
最新更新 olllam对显卡6900XT支持一直不是很如意,另外本文中介绍的自己编译的ollama版本总是落后官方最新的版本很多,而且Patch后的ollama对最新的模型也支持不好。既然ollama就是用llama.cpp作为后端引擎来封装了模型下载、版本管理和API服务等便捷功能,建议直接用llama.cpp来替代ollama。请详细参考文章:…
Dapr官方文档是通过执行bash脚本来安装升级的,因为众所周知的原因,国内执行这个脚本经常会因为网络问题出错,下面提供了一个离线安装的方法。 Github下载指定版本的安装包:https://github.com/dapr/installer-bundle/releases 上传到目标服务器,并解压到指定目录,进入拷贝解压后的根目录daprbun…