Google: Los modelos de lenguaje de gran escala se utilizan para ataques reales; la IA puede eludir los mecanismos de seguridad de doble autenticación

大型語言模型攻擊

Según CoinEdition el 12 de mayo, el equipo de inteligencia de amenazas de Google emitió un informe de alerta advirtiendo que los atacantes han utilizado modelos de lenguaje a gran escala en ataques de red reales que afectan a sistemas globales, y confirmó que los hackers han desarrollado una vulnerabilidad 0-day basada en Python que puede eludir los mecanismos de seguridad de autenticación de doble factor (2FA); Google afirma que existe una relación entre el uso indebido de herramientas de IA en actividades vinculadas a ataques cibernéticos a nivel estatal y en redes de hackers del mercado clandestino.

Aplicaciones específicas de herramientas de IA en ataques cibernéticos

De acuerdo con el informe del equipo de inteligencia de amenazas de Google, las herramientas de IA están ayudando a los atacantes a mejorar sus capacidades en casi cada etapa de un ataque cibernético, incluyendo: detectar más rápido vulnerabilidades de software, automatizar parte de los procesos de ataque y mejorar técnicas de phishing y de creación de malware.

El informe registra un caso específico: los hackers utilizaron una vulnerabilidad 0-day basada en Python para eludir con éxito la autenticación de doble factor (2FA); Google explica que el ataque aún requiere credenciales de inicio de sesión válidas, lo que muestra que la vulnerabilidad se origina en el diseño del sistema en sí, y no en un defecto técnico de software.

El informe también señala que los atacantes utilizan bases de datos de vulnerabilidades que contienen miles de vulnerabilidades conocidas y ejemplos de explotación para entrenar sus métodos de ataque, a fin de identificar patrones que ayuden a descubrir nuevas debilidades; los hackers, a la vez, utilizan IA para crear código falso, manipular cargas útiles y escribir scripts dinámicos para evadir la detección, y en algunos casos, los sistemas de IA pueden enviar instrucciones en tiempo real a los dispositivos infectados.

Organizaciones relacionadas con China y Corea del Norte: el informe confirma que adoptaron primero métodos de ataque con IA

Según el informe del equipo de inteligencia de amenazas de Google, las organizaciones vinculadas a China y Corea del Norte están a la vanguardia en la adopción de los métodos de ataque asistidos por IA mencionados; las técnicas específicas incluyen diseñar cuidadosamente mensajes de solicitud (prompt) para robar información de seguridad del sistema, y hacerse pasar por expertos en ciberseguridad para realizar posibles escaneos de vulnerabilidades en firmware y dispositivos embebidos.

Google despliega sistemas de defensa con IA para responder

Según el reporte de CoinEdition, Google indicó que está reforzando las medidas de defensa basadas en IA: el sistema Big Sleep se utiliza para identificar automáticamente vulnerabilidades; el sistema CodeMender se utiliza para reparar automáticamente vulnerabilidades; y Gemini incorpora medidas de seguridad integradas para bloquear actividades sospechosas en las cuentas de los usuarios.

Preguntas frecuentes

¿Por qué el caso de IA que elude la autenticación de doble factor (2FA) registrado en el informe de Google?

Según el reporte de CoinEdition del 12 de mayo de 2026, el informe del equipo de inteligencia de amenazas de Google confirma que los hackers utilizaron una vulnerabilidad 0-day basada en Python para eludir con éxito el mecanismo de seguridad de 2FA; Google explica que la vulnerabilidad se origina en el diseño del sistema en sí y que el ataque solo puede ejecutarse si se cuentan con credenciales de inicio de sesión válidas.

¿Qué organizaciones vinculadas a países fueron señaladas por Google por usar primero métodos de ataque con IA?

Según el informe del equipo de inteligencia de amenazas de Google, las organizaciones vinculadas a China y Corea del Norte fueron las primeras en adoptar herramientas de IA para ejecutar ataques cibernéticos; los métodos incluyen diseñar cuidadosamente mensajes de solicitud para robar información de seguridad y hacerse pasar por expertos en ciberseguridad para escanear vulnerabilidades de firmware.

¿Qué sistemas de defensa con IA con nombre propio desplegó Google para hacer frente a las amenazas relacionadas?

Según el reporte de CoinEdition, Google ya desplegó sistemas de defensa con IA como Big Sleep (identificación automática de vulnerabilidades), CodeMender (reparación automática de vulnerabilidades) y Gemini con medidas de seguridad integradas (para bloquear actividades sospechosas en las cuentas).

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

百億新創 Thinking Machines 發表即時互ativo AI 模型,主打「邊說邊聽邊作業」

由前 OpenAI 前高層 Mira Murati 與 John Schulman 共同創辦、百億美元估值的人工智慧新創公司 Thinking Machines,週二推出首個能「邊說邊聽」的全雙工 AI 模型預覽版,延遲低至 0,4 秒,挑戰現有人機即時互動模式。 (輝達注資 Thinking Machines Lab 部署 Vera Rubin 提升前沿模型效能) Thinking Machines 新模型:打破輪流說話的舊模式 現有所有主流 AI 模型,運作方式都是「使用者輸入,模型等待,然後回應」。前 OpenAI 技術長 Mira Murati 與 OpenAI 共同創辦人 John Schulman 認為這種輪流回覆的過程就像傳訊息,並不是真正的對話。如今兩人聯手創立的 Thinking Machines Lab,於 5 月 11 日正式發表全新「互動模型(Interaction Models)」的研究預覽版,試圖從根本上改變這個現狀。 People talk, listen, watch, think, and collaborate at the same time, i

ChainNewsAbmediaHace25m

Los atacantes secuestran los pipelines oficiales de TanStack, OpenSearch y Mistral, y publican 84 versiones maliciosas el 12 de mayo

De acuerdo con el monitoreo de Beating, el 12 de mayo de 3:20 a 3:26 UTC+8, atacantes afiliados con TeamPCP secuestraron los canales oficiales de publicación de TanStack, OpenSearch de Amazon y Mistral, publicando 84 versiones maliciosas de paquetes en npm y PyPI. Los paquetes afectados incluyen @tanstack/react-router (10M+ descargas semanales), @opensearch-project/opensearch (1,3M descargas semanales) y el cliente mistralai de Mistral. Los paquetes maliciosos eludieron los mecanismos de confian

GateNewsHace43m

Ixirpad se asocia con Cware Labs para apoyar startups de IA y Web3

Según un anuncio del 11 de mayo, Ixirpad entabló una asociación estratégica con Cware Labs para acelerar el desarrollo de infraestructura sostenible en la industria Web3. Cware Labs, que opera como un venture studio, identificará y respaldará proyectos de blockchain y IA con alto potencial. La colaboración busca ayudar a las empresas emergentes a pasar de conceptos en etapas iniciales a negocios escalables y listos para inversión mediante orientación operativa, apoyo estratégico y acceso a recur

GateNewsHace58m

Vista del agente Claude Code: Gestión de sesiones en paralelo en una sola pantalla

Anthropic 11 de mayo presentó una nueva función para Claude Code, “Agent View”, que reúne en una sola pantalla la gestión de múltiples sesiones de trabajo de Claude Code ejecutadas simultáneamente, evitando tener que alternar entre varias pestañas de terminal. De acuerdo con el blog oficial de Anthropic, esta función se lanza en forma de Research Preview y está disponible para las opciones Pro, Max, Team, Enterprise y planes de Claude API. El post único publicado por la cuenta oficial de X obtuv

ChainNewsAbmediahace1h

Karpathy respalda la salida HTML para grandes modelos de lenguaje y predice que el video neuronal interactivo será la forma definitiva

Según Andrej Karpathy, miembro fundador de OpenAI y creador del concepto de “vibe coding”, hoy respaldó el enfoque del equipo de Claude Code de usar HTML en lugar de Markdown para las salidas de modelos de lenguaje. Karpathy describió una hoja de ruta de evolución para interfaces de interacción con IA: de texto plano a Markdown a HTML, seguido de múltiples formas intermedias, hasta llegar a la etapa final de video neuronal interactivo generado directamente por modelos de difusión. Karpathy atrib

GateNewshace1h

Austrac advierte sobre los riesgos de blanqueo de dinero impulsados por IA mientras Australia amplía las normas contra el blanqueo de capitales el 1 de julio

Según Austrac, el 12 de mayo, la agencia australiana de inteligencia financiera advirtió que la inteligencia artificial está aumentando los riesgos de blanqueo de capitales al permitir que los delincuentes fabriquen identidades, falsifiquen documentos y oculten ganancias de forma más rápida y a mayor escala. A partir del 1 de julio de 2026, los agentes inmobiliarios, los comerciantes de metales preciosos y piedras, y los proveedores de servicios fiduciarios y de empresas quedarán sujetos a las n

GateNewshace1h
Comentar
0/400
Sin comentarios