Mensaje de Gate News, 27 de abril — el CEO de OpenAI, Sam Altman, publicó cinco principios operativos para la empresa bajo su firma personal, señalando que OpenAI podría restringir el acceso de los usuarios a las capacidades de los modelos en ciertos periodos para priorizar la seguridad. En el comunicado, Altman describió un posible escenario futuro en el que la empresa tendría que “sacrificar cierto nivel de empoderamiento a cambio de una mayor resiliencia.”
Altman recalcó que las decisiones críticas sobre IA deben tomarse mediante procesos democráticos en lugar de determinarse únicamente por laboratorios de IA. Defendió las recientes compras a gran escala de OpenAI de capacidad informática, la construcción de centros de datos globales y los esfuerzos de integración vertical, señalando que el objetivo es reducir los costos de la IA para que la tecnología sea accesible para todos. Altman indicó que los gobiernos podrían necesitar explorar nuevos modelos económicos para garantizar la distribución del valor. También destacó un escenario de riesgo específico: modelos extremadamente potentes podrían reducir el umbral para crear patógenos novedosos, lo que requeriría una respuesta a nivel de la sociedad.
Altman reflexionó sobre la histórica cautela de OpenAI al momento de lanzar los pesos de GPT-2, reconociendo que la precaución en retrospectiva fue excesiva, pero señaló que esto llevó a la estrategia de despliegue iterativo que OpenAI continúa empleando hoy.
Related News
Curso de IA de Stanford que une a líderes de la industria como Huang Renxun y Altman, ¡desafío de crear valor para el mundo en diez semanas!
El agente de IA ya puede reproducir de forma independiente artículos académicos complejos: Mollick afirma que los errores se deben más al texto original humano que a la IA
DeepSeek V4-Pro se lanza con un costo 98% menor que GPT-5.5 Pro