Gate News 消息,4月25日——Amazon 在 4 月 24 日宣布,Meta 将使用数百万枚 AWS Graviton 芯片来处理 AI 工作负载,这标志着 AWS 自研基于 ARM 的处理器取得了一笔重要的客户胜利。这些芯片将用于 AI 推理和通用计算,而不是模型训练。
该合作覆盖多个年度,总价值达数十亿美元,Meta 计划部署数千万个 Graviton5 处理器核心。该消息发布之际,正值 Meta 在 2025 年 8 月与 Google Cloud 达成美国$10 十亿美元、为期六年的云合作伙伴关系之后,不过该公司仍继续与 AWS 和 Microsoft Azure 保持合作关系。
此举反映了更广泛的行业变化,因为 Amazon 正在扩大其定制 AI 芯片业务。4 月份,Anthropic 承诺在 10 年以上时间里将超过美国$100 十亿美元投入到聚焦定制芯片的 AWS 工作负载中,这促使 Amazon 进一步向该初创公司追加投资美国$5 十亿美元。
免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见
声明。
相关文章
字节跳动计划今年在 AI 基础设施支出上增加 25%,达到 2000 亿人民币
据 ChainCatcher 援引 Golden Data 称,字节跳动计划今年将 AI 基础设施支出提高 25%,达到 2000 亿人民币,原因是内存芯片成本上升以及人工智能开发加速。
GateNews34 分钟前
企业 AI 平台 Pit 关闭 $16M 系列融资,由 a16z 领投
据 Odaily,企业级 AI 平台 Pit 宣布完成一轮由 a16z 牵头的 1600 万美元融资,Lakestar 参与其中,OpenAI、Anthropic、Google、Deel 和 Revolut 的高管也加入了本轮。Pit 将自己定位为“AI 产品团队即服务”,旨在取代传统电子表格和僵化的 SaaS 系统。
GateNews41 分钟前
谷歌试点招聘考试,允许工程师使用 AI 工具
据《朝鲜日报》报道,谷歌正在试点招聘考试,允许美国软件工程候选人在部分入门级和中级岗位中使用 AI 工具。该试点包括代码理解任务,申请者需要审查现有代码、修复漏洞并提升性能。面试官将评估候选人如何提示 AI、核查其输出、编辑结果以及调试代码,而不是仅评估其从零编写代码的能力。
GateNews2小时前
OpenAI 立即停止微调 API。现有用户可访问至 2027 年 1 月 6 日
根据 Beating 监测到的 OpenAI 官方公告,该公司将从即刻起停止为开发者提供自助式微调 API。新的用户将不再能够创建微调任务,而现有的活跃用户可在 2027 年 1 月 6 日之前继续访问该服务。已部署的微调模型,其推理服务将与其基础模型的生命周期绑定,当基础模型被下线时,推理服务也将停止。 OpenAI 表示,其新的基础模型(例如 GPT-5.5)在遵循指令和格式化方面现在已足够强大。该公司称,将提示工程与检索增强生成(Retrieval-Augmented Generation, RAG)结合使用,相比微调更便宜、更快速,并且足以满足大多数用例。
GateNews3小时前
Sakana AI 和 Nvidia 通过跳过 80% 的无效计算,实现 30% 更快的 H100 推理
Sakana AI 和 Nvidia 已开源 TwELL,这是一种稀疏数据格式,可让 H100 GPU 在大型语言模型中跳过 80% 的无效计算,同时不牺牲准确性。该解决方案在 H100 上可实现最高 30% 更快的推理和 24% 更快的训练,并降低峰值内存使用。在对一个 1.5 十亿参数的模型进行测试时,通过训练期间的轻量级正则化,该方法将活跃神经元降至低于 2%,且在七个下游任务中没有出现性能下降。
GateNews4小时前
微软开源 Phi-Ground 4B 模型,在屏幕点击准确率方面优于 OpenAI Operator 和 Claude
据 Beating 称,微软最近开源了 Phi-Ground 模型家族,旨在解决“AI 应该在计算机屏幕上点击哪里”的问题。该 40 亿参数版本,并结合用于指令规划的更大语言模型,在 Showdown 基准测试中超过了 OpenAI Operator 和 Claude Computer Use 的点击准确率,并在包括 ScreenSpot-Pro 在内的五项评估中位列所有 100 亿以下参数模型的第一名。 团队在超过 4000 万个数据样本上进行了训练,并发现学术论文中使用的三种常见训练技术在规模化时变得无效。关键思路证明很简单:以常规数字输出坐标,例如“523, 417.” 先前的研究为坐标发明了专门的位置词汇,但这些方法无法规模化。团队还发现,将文本指令放在图像之前可以提升性能,因为模型在处理像素时能够识别目标。此外,诸如 DPO 之类的强化学习方法在微调之后仍能提高准确率。
GateNews4小时前