Filtración de un debate sobre el mecanismo de preauditoría de IA de la Casa Blanca; al día siguiente, los comentarios de Hassett fueron negados por la oficina oficial

白宮AI預審機制討論

El director del Consejo Nacional de Economía (NEC) de la Casa Blanca, Kevin Hassett, dijo en una entrevista con Fox Business el 7 de mayo que la administración de Trump está analizando exigir mediante una orden ejecutiva que los modelos de IA pasen una revisión de seguridad del gobierno antes de su publicación pública, y lo comparó con el proceso de aprobación previa de la FDA para medicamentos. Pero, según informó Politico el 8 de mayo, funcionarios superiores de la Casa Blanca afirmaron después que esos comentarios fueron «citados fuera de contexto».

Cronología del caso: El informe del New York Times saca a la luz las contradicciones de la política en la Casa Blanca

El 4 de mayo de 2026, The New York Times informó que la Casa Blanca estaba debatiendo crear un mecanismo de revisión previa a la publicación de modelos de IA, momento en el que lo calificaron como «en consideración». El 7 de mayo de 2026, Kevin Hassett, en una entrevista con Fox Business, dijo públicamente: «Estamos estudiando si podemos, mediante una orden ejecutiva, exigir que una IA que podría generar vulnerabilidades en el futuro se ponga en uso solo después de demostrar que es segura, como con los medicamentos de la FDA».

A altas horas de la noche del 7 de mayo de 2026, la jefa de gabinete de la Casa Blanca, Susie Wiles, publicó en la plataforma X que el gobierno «no se encarga de elegir ganadores y perdedores», y afirmó que la implementación de despliegues seguros de tecnologías potentes debería ser impulsada por «innovadores destacados de Estados Unidos, no por burocracias». Según el registro de su cuenta oficial, la publicación anterior era el cuarto contenido emitido desde la creación de la cuenta de Wiles.

Según Politico, citando a tres personas con conocimiento del tema bajo condición de anonimato, la Casa Blanca está debatiendo permitir que las agencias de inteligencia realicen una evaluación preliminar antes del lanzamiento público de modelos de IA. Uno de los funcionarios del gobierno de Estados Unidos dijo en el reporte que uno de los objetivos de esta medida es «asegurar que el sector de inteligencia estudie y use esas herramientas antes de que rivales como Rusia y China comprendan las nuevas capacidades».

Instituciones implicadas y marco de políticas

CAISI amplía el acuerdo de evaluaciones voluntarias de seguridad

El Centro de Normas e Innovación de IA (CAISI), dependiente del Departamento de Comercio, anunció esta semana que ya ha firmado acuerdos de evaluación de seguridad de IA con Google DeepMind, Microsoft y xAI, ampliando el alcance a OpenAI y Anthropic, que ya estaban incluidas con anterioridad. El marco de evaluaciones voluntarias de CAISI está en vigor desde 2024.

Apoyo público del subsecretario de Defensa al mecanismo de preevaluación

El subsecretario de Defensa, Emil Michael, en una conferencia sobre IA en Washington el 8 de mayo de 2026, expresó públicamente su apoyo a la preevaluación gubernamental antes del lanzamiento de modelos de IA, y en su intervención citó el sistema Mythos de Anthropic como caso de referencia, diciendo que esos modelos «tarde o temprano aparecerán» y que el gobierno debe establecer mecanismos de respuesta.

Antecedentes de políticas de la administración Trump y Anthropic

De acuerdo con lo informado por Politico, el secretario de Defensa, Pete Hegseth, incluyó a Anthropic en una lista de riesgos en marzo de 2026 alegando riesgos de cadena de suministro, y prohibió que sus modelos se utilicen en contratos del Departamento de Defensa. Posteriormente, Trump pidió por separado que las agencias federales dejaran de usar productos de Anthropic en un plazo de seis meses. Al mismo tiempo, el mes pasado Anthropic reveló que su sistema de IA Mythos tiene capacidades potentes para descubrir vulnerabilidades de software que superan el umbral de seguridad para una publicación pública; después, varias agencias federales presentaron solicitudes para integrarlo. El 8 de mayo de 2026, OpenAI anunció que realizará una vista previa limitada de GPT-5.5-Cyber, una nueva herramienta para detectar y reparar vulnerabilidades de la red.

Posturas de la industria contra el mecanismo de revisión obligatoria

Daniel Castro, presidente del Information Technology and Innovation Foundation (ITIF), dijo en el reporte de Politico: «Si se puede negar la aprobación antes de salir al mercado, eso es un problema enorme para cualquier empresa. Si un competidor obtiene la aprobación y otro no, la diferencia de semanas o meses en el acceso al mercado tendrá un impacto enorme». Los patrocinadores de ITIF incluyen Anthropic, Microsoft y Meta.

En el mismo reporte, un alto funcionario de la Casa Blanca dijo: «Sí, hay uno o dos que están muy entusiasmados con la regulación del gobierno, pero son solo una minoría». El funcionario pidió anonimato alegando necesidad de describir debates sensibles de política.

Preguntas frecuentes

¿Cuándo y dónde formuló Kevin Hassett comentarios sobre la preevaluación de la IA?

Según informó Politico, el 7 de mayo de 2026, Kevin Hassett, en una entrevista con Fox Business, planteó públicamente que el gobierno está analizando una orden ejecutiva para exigir que los modelos de IA pasen una revisión de seguridad del gobierno antes de su publicación, y lo comparó con el proceso de aprobación de medicamentos de la FDA.

¿Cuál es el fundamento con el que la Casa Blanca niega los comentarios de Hassett?

Según informó Politico el 8 de mayo de 2026, funcionarios superiores de la Casa Blanca dijeron que los comentarios de Hassett fueron «un poco citados fuera de contexto» y que la dirección de la política de la Casa Blanca es establecer asociaciones con las empresas, no impulsar la regulación gubernamental. La jefa de gabinete de la Casa Blanca, Susie Wiles, volvió a publicar para reiterar que el gobierno no interviene en la elección del mercado.

¿Qué acuerdos de evaluación de seguridad de IA agregó CAISI esta semana?

De acuerdo con el anuncio de CAISI de esta semana, los acuerdos añadidos cubren a Google DeepMind, Microsoft y xAI, además de OpenAI y Anthropic, que ya estaban cubiertas previamente. El marco de evaluaciones voluntarias está en vigor desde 2024.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

SNS lanza el protocolo MCP que permite a agentes de IA gestionar dominios .sol el 7 de mayo

Según el anuncio oficial de SNS del 7 de mayo de 2026, SNS MCP (Model Context Protocol) entró en funcionamiento, permitiendo que los agentes de IA descubran, registren y gestionen dominios .sol en Solana mediante interacciones conversacionales. Ahora, los usuarios pueden conectar plataformas de IA compatibles como Claude AI y OpenClaw para

GateNewsHace18m

Corea del Sur lanza el fondo de ciberseguridad con IA $8M para 50 empresas

El Ministerio de Ciencia y TIC de Corea del Sur y la Agencia de Internet y Seguridad de Corea invertirán 12 mil millones de won (8,31 millones de USD) en el Proyecto de Apoyo a las Nuevas Tecnologías de Seguridad de la Información de 2026, según Chosun Daily. El programa tiene como objetivo respaldar a 50 empresas que trabajen en 18 tareas de seguridad de IA

CryptoFrontierHace18m

OpenAI amplía el piloto de anuncios de ChatGPT a Corea del Sur, Reino Unido, Japón, Brasil y México el 7 de mayo

De acuerdo con The Korea Times, OpenAI anunció el 7 de mayo que ampliará su prueba de anuncios de ChatGPT a Corea del Sur, el Reino Unido, Japón, Brasil y México para monetizar a los usuarios gratuitos más allá de sus mercados iniciales (EE. UU., Canadá, Australia y Nueva Zelanda). La prueba se dirigirá a usuarios adultos en los planes Free y Go,

GateNewsHace18m

Estados Unidos y China listos para lanzar un diálogo oficial de seguridad de la IA, liderado por funcionarios del Tesoro

Según informes, Estados Unidos y China se están preparando para lanzar un diálogo oficial de seguridad de la IA destinado a establecer mecanismos de gestión de crisis para su competencia tecnológica. La delegación de EE. UU. estará liderada por el secretario del Tesoro Scott Bessent, mientras que China estará representada por el vicepresidente

GateNewsHace48m

RLWRLD lanza el modelo de IA RLDX-1 para manos robóticas industriales

RLWRLD, una startup de IA en robótica respaldada por LG Electronics, presentó RLDX-1, un modelo base diseñado para manos robóticas de cinco dedos en aplicaciones industriales, según RLWRLD. La compañía lanzó los pesos del modelo, el código y la documentación técnica en GitHub y Hugging Face. Modelo

CryptoFrontierhace1h

DeepMind AlphaEvolve récords entre disciplinas: la multiplicación de matrices de 4×4 supera el récord de Strassen de 1969 y el entrenamiento de Gemini es 1% más rápido

Google DeepMind 7 de mayo (hora de EE. UU.) publicó un informe de resultados multidisciplinarios de AlphaEvolve. El blog oficial de DeepMind resume los avances concretos de AlphaEvolve desde su lanzamiento: encontrar un método mejor para la multiplicación de matrices complejas 4×4 que el algoritmo de Strassen de 1969 (48 multiplicaciones escalares puras), colaborar con matemáticos como Terence Tao para resolver varios problemas matemáticos difíciles de Erdős, ahorrar 0,7% de recursos globales de cómputo para los centros de datos de Google, aumentar la velocidad en 23% de los kernels clave con los que se entrena Gemini y reducir en 1% el tiempo total de entrenamiento de Gemini. Arquitectura: Exploración de amplitud con Gemini Flash + Gemini

ChainNewsAbmediahace1h
Comentar
0/400
Sin comentarios