以太坊联合创始人 Vitalik Buterin 在一篇新的博客文章中详细介绍了他个人的 AI 设置,称该配置既“私密”又“安全”。Buterin 表示,他的人工智能设置完全在本地硬件上运行,并围绕大型语言模型(LLM)构建了自定义工具,以防止他的 AI 代理在未获得人工签署同意的情况下发送消息或转移加密货币。 “新的双因素认证是人类和大型语言模型,”他写道。 周三发布的这篇文章,较之 Buterin 先前呼吁隐私保护型 AI 又向前迈进了一步。2 月份,他勾勒了一条覆盖私密 AI 使用、代理市场和治理的四象限以太坊-AI 路线图。但这篇新文章走得更远,提供了更细致的视角,展示他自己是如何真正落地这些原则的。 Buterin 通过 llama-server 在本地运行开源的 Qwen3.5:35B 模型。并且在测试了多个设置之后,他更喜欢使用一台配备 Nvidia 5090 GPU 的笔记本电脑,速度可达每秒 90 个 token。Buterin 补充道,这样的速度足够让人觉得“好用”。
他在自己的机器上存储了一整套维基百科文章和技术文档的完整备份,以尽量减少他需要向外部搜索引擎发起查询的频率;而他将外部搜索引擎视为隐私泄露源。 最与加密相关的披露在于他如何把 AI 连接到他的以太坊钱包以及消息账户。Buterin 写道,他构建并开源了一个消息守护进程:它让他的 AI 代理可以自由读取 Signal 消息和电子邮件,但会将外发消息限制为仅发给他自己,除非先由人类手动批准。 他建议那些在构建与 AI 相连接的以太坊钱包工具的团队采用同样的架构:自动化交易上限为每天 100 美元,超过该额度的任何操作都需要先确认。
这种做法与 Buterin 已经管理自己加密资产的方式是一致的。他将 90% 的资金保存在一个多签安全钱包中,在可信联系人之间分配密钥,从而让没有任何单一的人会成为故障的单点。 这些 AI 安全护栏看起来也是把同样的理念延伸到了“代理化”的场景中。 Buterin 在这篇新博客文章的开头引用了安全研究人员的结论:他们发现,为 OpenClaw 构建的技能中大约 15%(而 OpenClaw 现在是历史上增长最快的 GitHub 仓库)包含恶意指令,其中一些会在没有任何对用户提示的情况下静默外泄用户数据。 “我带着一种非常害怕的心态:就像我们终于在将端到端加密推向主流、以及越来越多的本地优先软件之后,在隐私方面向前迈出了一步,我们却即将通过把你生活中的全部内容标准化喂给基于云的 AI,倒退 10 步,”他在文中写道。