El CEO de OpenAI insta a EE. UU. a prepararse para los riesgos de la “superinteligencia” de la IA y sus beneficios

CoinDesk

El director ejecutivo de OpenAI, Sam Altman, dijo que los responsables de las políticas de EE. UU. deben actuar ahora para prepararse para la inteligencia artificial avanzada, advirtiendo que la tecnología está pasando de la teoría al uso económico cotidiano.

En una entrevista con Axios, Altman dijo que los sistemas de IA ya gestionan tareas de codificación e investigación que antes requerían equipos de programadores. Los modelos más nuevos irán más lejos, dijo, ayudando a los científicos a realizar grandes descubrimientos y permitiendo que las personas hagan el trabajo de grupos enteros.

Ese cambio ya se ve en la ciberseguridad, donde algunos líderes de la industria dicen que la inteligencia artificial está inclinando el equilibrio a favor de los atacantes.

Charles Guillemet, director de tecnología de la empresa fabricante de billeteras de hardware Ledger, por ejemplo, dijo a CoinDesk que las herramientas de IA están reduciendo el costo y la habilidad necesarios para encontrar y explotar fallas de software. Tareas que antes tomaban meses, como la ingeniería inversa de código o la vinculación de múltiples vulnerabilidades, ahora pueden completarse en segundos con los prompts adecuados.

La industria cripto vio más de 1.4 mil millones de dólares en activos robados o perdidos en ataques el año pasado. Esa cifra podría seguir creciendo, sugirió Guillemet. Además, los desarrolladores dependen cada vez más de código generado por IA, lo cual podría potencialmente introducir nuevas fallas a escala.

La respuesta, dijo, requerirá defensas más sólidas como código verificado matemáticamente, dispositivos de hardware que mantengan las llaves privadas fuera de línea y un reconocimiento más amplio de que los sistemas pueden fallar.

IA en ciber, bioseguridad

Aunque Altman señaló que la IA podría acelerar el descubrimiento de fármacos o la ciencia de materiales, también advirtió que podría habilitar ciberataques más potentes y reducir la barrera para realizar investigaciones biológicas dañinas. Esas amenazas podrían surgir dentro de un año, lo que hace urgente la coordinación entre el gobierno, las empresas de tecnología y los grupos de seguridad.

“No estamos tan lejos de un mundo en el que haya modelos de código abierto increíblemente capaces que sean muy buenos en biología”, dijo. “La necesidad de que la sociedad sea resiliente frente a grupos terroristas que usen estos modelos para intentar crear patógenos novedosos ya no es algo teórico”.

Otro ejemplo que propuso fue un “ciberataque que sacudiría al mundo” que podría ocurrir tan pronto como este año. Para evitarlo, dijo, se requeriría “una cantidad tremenda de trabajo”.

Planteó las ideas de política de OpenAI como un punto de partida, con el objetivo de impulsar el debate sobre cómo gestionar sistemas que aprenden rápido y actúan en muchos campos. Usar IA para ayudar a defenderse de estos posibles ataques, dijo, es importante.

Sobre la posible nacionalización de OpenAI, Altman dijo que el argumento en contra se basa en la necesidad de que EE. UU. logre la “superinteligencia” antes que sus rivales.

“El argumento más grande en contra de la nacionalización sería que necesitamos que EE. UU. tenga éxito construyendo superinteligencia de una manera alineada con los valores democráticos de Estados Unidos antes de que lo logre alguien más”, dijo. “Probablemente no funcionaría como un proyecto gubernamental; creo que eso es una cosa triste”.

Aun así, Altman dijo que cree que las empresas involucradas en IA deben trabajar estrechamente con el gobierno de EE. UU.

Dado su papel en OpenAI, Altman también tiene una participación financiera en cómo evoluciona el sector. Esa postura podría influir en cómo enmarca tanto la urgencia de la regulación como el papel de empresas privadas como OpenAI al gestionar riesgos emergentes, lo cual podría afectar la posición competitiva de la firma.

IA como un servicio público

La energía es una de las áreas donde ve un progreso rápido porque una mayor capacidad de potencia de procesamiento podría mantener los costos bajos a medida que crece la demanda de IA.

Altman también señaló señales tempranas de cambios laborales. En 2026, dijo, un programador ya trabaja de una manera diferente a la de un año antes.

La IA se convertirá en una especie de servicio público, como la electricidad, integrada en los dispositivos, mientras cae el costo de la inteligencia básica y los sistemas principales siguen siendo caros.

“Tendrás este asistente personal súper ejecutivo funcionando en la nube”, dijo Altman. “Si lo usas mucho o a niveles altos de inteligencia, tendrás una factura más alta ese mes y si lo usas menos, tendrás una factura más baja”.

“Es increíblemente importante que las personas que están construyendo IA tengan un alto nivel de integridad, sean personas confiables.”

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios