Gate News 消息,4 月 22 日——Google Cloud 宣布于 4 月 22 日发布其第八代自研定制 TPU (Tensor Processing Unit) 芯片。新产品阵容包括 TPU 8t,专为 AI 训练任务而设计;以及 TPU 8i,为 AI 推理工作负载进行了优化。两款芯片都将在今年晚些时候开始供货。谷歌还发布了用于构建 AI 代理的新工具,并宣布一项 $750 百万基金以推动企业采用 AI。
TPU 8t 在相同价格水平下,其性能比谷歌上一代 Ironwood TPU 提升 2.8 倍。TPU 8i 相较其前代产品性能提升 80%,并采用静态随机存取存储器 (SRAM) 架构,实现“具有成本效益的大规模吞吐和低延迟,使数百万个代理能够同时运行”,据首席执行官 Sundar Pichai 表示。与 Ironwood 相比,TPU 8t 和 TPU 8i 的每瓦效率均实现了超过两倍的提升,其中 TPU 8t 提升 124%,TPU 8i 提升 117%。谷歌在整个技术栈中优化了能效,并集成动态功耗管理系统,根据实时需求调整能耗。
谷歌自研模型现在通过直接客户 API 调用,每分钟处理超过 1600 亿个 token,高于上个季度的 1000 亿。如今,AI 在谷歌产生了 75% 的所有新增代码,而去年秋季为 50%。谷歌的企业产品 Gemini Enterprise,其付费月活用户环比增长 40%。该公司预计到 2026 年,将其机器学习计算预算中略多于一半投入云服务,以更好地服务云端客户及合作伙伴。谷歌也在扩大与博通(Broadcom)的合作,以开发并供给未来世代的定制 TPU 芯片,因为大型科技公司正寻求对英伟达(NVIDIA)和 AMD 价格昂贵且供给受限的 GPU 的替代方案。
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el
Aviso legal.
Artículos relacionados
OpenAI lanza un modelo de Filtro de Privacidad de código abierto para la detección y anonimización de PII
Resumen: El Filtro de Privacidad de OpenAI es un modelo de código abierto, ejecutable localmente, que detecta y anonimiza datos de información personal (PII) en texto. Admite contextos extensos, identifica muchas categorías de PII y está pensado para flujos de trabajo que preservan la privacidad, como la preparación de datos, la indexación, el registro (logging) y la moderación.
El Filtro de Privacidad de OpenAI es un modelo de código abierto y ejecutado localmente (128k-token context) que detecta y anonimiza PII en texto, cubriendo datos de contacto, financieros y de credenciales para flujos de trabajo de privacidad.
GateNewsHace28m
OpenAI planea desplegar 30GW de potencia informática para 2030
OpenAI aspira a contar con 30GW de capacidad informática para 2030 para satisfacer la creciente demanda de IA, con 8GW ya completados de un objetivo de 10GW para 2025. La expansión señala una estrategia para ampliar la infraestructura para el desarrollo y despliegue de la IA de próxima generación.
OpenAI pretende alcanzar 30GW de potencia informática para 2030 para atender la creciente demanda de IA, habiendo ya completado 8GW de un objetivo de 10GW para 2025. La medida refleja una expansión estratégica de la infraestructura para respaldar el desarrollo y despliegue de la IA de próxima generación.
GateNewsHace29m
El agente de descubrimiento de vulnerabilidades impulsado por IA de 360 encuentra casi 1.000 exploits de día cero, compitiendo con Mythos
El agente impulsado por IA de 360 Digital Security afirma haber encontrado alrededor de 1.000 vulnerabilidades nuevas, incluidas en Office y OpenClaw; la IA ahora es clave para el descubrimiento y la preparación de la cadena de explotación, compitiendo con Mythos.
Resumen: Un informe citado por Bloomberg señala que el Agente de Descubrimiento de Vulnerabilidades impulsado por IA de 360 Digital Security Group identificó cerca de 1.000 vulnerabilidades previamente desconocidas en los últimos meses, incluidas en Microsoft Office y el framework OpenClaw. La empresa afirma que la IA se ha convertido en el motor central del descubrimiento de vulnerabilidades y ha anunciado una herramienta de IA para acelerar la construcción de cadenas de explotación. Benincasa describe a 360 como un competidor de Mythos, de Anthropic, basándose en la revisión de Natto Thoughts sobre los anuncios en idioma chino de la empresa.
GateNewsHace34m
Yifan Zhang divulga las especificaciones técnicas completas de DeepSeek V4: 1.6T parámetros, 384 expertos con 6 activaciones
Mensaje de Gate News, 22 de abril: el estudiante de doctorado de Princeton, Yifan Zhang, divulgó en X las especificaciones técnicas completas de DeepSeek V4, después de un adelanto el 19 de abril. V4 cuenta con 1.6 billones de parámetros totales y una variante liviana, V4-Lite, con 285 mil millones de parámetros.
El modelo emplea el mecanismo de atención DSA2
GateNewshace1h
CEO de Anthropic se reúne para romper el hielo en la Casa Blanca: consulta con el Jefe de Gabinete y con Bessent Mythos
The Wall Street Journal said that on 4/17, Anthropic CEO Amodei met privately with the White House, focusing on Mythos’s national security boundaries and responsible deployment; the White House said the meeting was constructive, and the market viewed it as a thawing of relations. The core disagreement is that the military wants Claude for all lawful purposes, while Anthropic insists on exercising discretion under its own acceptable use policy. Both sides said they will continue the dialogue and talk again before Mythos goes live in May.
ChainNewsAbmediahace2h
Google Ironwood TPU: 10 veces el rendimiento + cuatro socios para competir contra Nvidia
Según el informe en profundidad de Bloomberg y el anuncio oficial de Google, Google amplió oficialmente su cartera de chips de IA de diseño propio el 22 de abril: el chip dedicado a inferencia Ironwood (TPU de séptima generación) se suministrará en su totalidad a través de Google Cloud, y al mismo tiempo se pondrá en marcha la colaboración de próxima generación con cuatro socios, Broadcom, MediaTek, Marvell e Intel, con el objetivo de desafiar de forma positiva la posición dominante de Nvidia en el mercado de cómputo de IA mediante una cadena de suministro de chips personalizados.
Ironwood: TPU de séptima generación, diseñada por primera vez específicamente para inferencia
Ironwood es el producto de la séptima generación de la serie TPU de Google y el primer chip dedicado a inferencia bajo la estrategia de “separación entre entrenamiento e inferencia”. Las especificaciones reveladas por Google: el rendimiento pico por chip es T
ChainNewsAbmediahace2h