Vitalik Buterin 提出本地运行 AI 架构,强调隐私、安全与自我主权,并警示 AI Agent 潜在风险。
以太坊创办人 Vitalik Buterin 4 月 2 日在个人网站发表长文,分享他以隐私、安全与自我主权为核心所打造的 AI 工作环境设置——所有 LLM 推理本地执行、所有文件本地存放、全面沙箱化,刻意避开云端模型与外部 API。
文章一开头先警告:“请不要直接复制这篇文章描述的工具与技术,并假设它们是安全的。这只是一个起点,而不是完成品的描述。”
Vitalik 指出,今年初 AI 完成了从“聊天机器人”到“agent”的重要转型——你不再只是问问题,而是交付任务,让 AI 长时间思考、调用数百个工具来执行。他以 OpenClaw(目前 GitHub 史上成长最快的 repo)为例,同时点名研究人员记录的多项安全问题:
Vitalik 强调,他对隐私的出发点不同于传统资安研究者:“我来自一个对把个人生活完整喂给云端 AI 感到深度恐惧的立场——就在端到端加密与本地优先软件终于主流化、我们终于往前迈一步的时候,我们却可能退后十步。”
他设定了明确的安全目标框架:
Vitalik 测试了三种本地推理硬件配置,主力使用 Qwen3.5:35B 模型,搭配 llama-server 与 llama-swap:
| 硬件 | Qwen3.5 35B(tokens/sec) | Qwen3.5 122B(tokens/sec) |
|---|---|---|
| NVIDIA 5090 笔记本(24GB VRAM) | 90 | 无法执行 |
| AMD Ryzen AI Max Pro(128GB 统一内存,Vulkan) | 51 | 18 |
| DGX Spark(128GB) | 60 | 22 |
他的结论是:低于 50 tok/sec 太慢,90 tok/sec 是理想。NVIDIA 5090 笔记本体验最流畅;AMD 目前仍有较多边缘问题,但未来有望改善。高端 MacBook 也是有效选项,只是他个人没有亲试。
对 DGX Spark 他直言不客气:“被描述为‘桌面 AI 超级计算机’,但实际上 tokens/sec 比好的笔记本 GPU 还低,而且还要额外搞定网络连接等细节——这很逊。”他的建议是:若负担不起高端笔记本,可以和朋友共同购买一台足够强力的机器,放在有固定 IP 的地点,大家远端连接使用。
Vitalik 这篇文章,与同日推出的 Claude Code 安全问题讨论形成有趣的呼应——AI agent 进入日常开发工作流程的同时,安全性问题也正在从理论风险变成现实威胁。
他的核心讯息很清楚:在 AI 工具愈来愈强大、愈来愈能存取你的个人数据与系统权限的当下,“本地优先、沙箱化、最小信任”不是偏执,而是理性的起点。