El 3 de mayo, OpenAI anunció que ampliará su colaboración con Amazon Web Services (AWS). Los modelos de OpenAI y los agentes de codificación de Codex se ofrecerán a los clientes de AWS a través de Amazon Bedrock. De acuerdo con un reporte de CNBC, esta ampliación es un paso clave después de que, a finales de abril, OpenAI y Microsoft terminaran el acuerdo de exclusividad en la nube: OpenAI pasa de un despliegue “único en la nube de Microsoft” a un despliegue multi-nube. AWS, por su parte, ya completó la integración inicial de los productos de OpenAI en la plataforma de Bedrock.
Antecedentes: termina el contrato exclusivo OpenAI-Microsoft; la licencia de IP se extiende hasta 2032
A finales de abril, OpenAI y Microsoft llegaron a un nuevo acuerdo: finaliza la estructura original de “acceso exclusivo de Microsoft a los productos y la IP de OpenAI”, y OpenAI obtiene el derecho de operar todos sus productos en cualquier nube. Microsoft conserva la licencia de propiedad intelectual de los modelos y productos de OpenAI hasta 2032, pero pasa a ser no exclusiva. Microsoft ya no necesita pagar la distribución de ingresos de OpenAI, pero OpenAI seguirá pagando a Microsoft la distribución de ingresos hasta 2030 (con un tope).
Este ajuste esencialmente desancla a OpenAI de la “dependencia única” de Microsoft y allana el camino para una cooperación más profunda con otros proveedores de nube. AWS es el primer competidor en beneficiarse, y la plataforma Bedrock se convierte en una vía concreta para la distribución multi-nube de los modelos de OpenAI.
Integración de AWS: modelos de OpenAI + agentes de codificación Codex se publican en Bedrock
Los clientes de AWS ya pueden acceder directamente a los modelos de OpenAI y a los agentes de codificación de Codex (herramientas de “agentic coding”) a través de Amazon Bedrock. Bedrock es la plataforma de agregación de modelos de IA de AWS; ya integraba varios modelos base como Anthropic Claude y Meta Llama. Tras sumar a OpenAI, Bedrock queda con cobertura completa en las principales líneas de modelos de vanguardia en línea.
Otro punto clave de esta colaboración es el acuerdo de inversión de 50 mil millones de dólares alcanzado en febrero entre OpenAI y Amazon: OpenAI utilizará la capacidad de cómputo de 2 GW del chip Trainium, desarrollado por AWS, para entrenar modelos de IA. Ambas partes también acordaron desarrollar conjuntamente modelos personalizados para el equipo de ingeniería de Amazon, destinados a productos en el lado de consumo de Amazon. El compromiso de gasto de OpenAI para AWS se amplía en 100 mil millones de dólares.
Observaciones posteriores: avance de la estrategia multi-nube y cambio en la relación comercial con Microsoft
El siguiente punto a observar es la distribución concreta del despliegue multi-nube de OpenAI: qué proporción corresponderá a AWS y qué proporción a Azure de Microsoft, y si se suman más adelante Google Cloud u Oracle. Otro punto a observar es la postura a largo plazo de los despliegues de OpenAI en Azure bajo el nuevo acuerdo: si disminuye de forma considerable la distribución de ingresos para Microsoft, podría ajustarse la prioridad de Azure hacia los servicios de OpenAI.
Este artículo Amazon y OpenAI amplían su colaboración: modelos disponibles en Bedrock, termina la exclusividad de Microsoft apareció por primera vez en Cadena News ABMedia.
Related News
OpenAI defiende una IPO para 2027, mientras Altman apoya el lanzamiento en Q4 2026
La versión de escritorio de OpenAI Codex añade una función de mascota: 3 estados de aviso, incubación según el idioma de uso
Testimonios de la primera semana del litigio entre Musk y Altman: admite que XAI “destiló” OpenAI y advierte que la IA es como un Terminator
OpenAI publica datos de la primera semana de funcionamiento de GPT-5.5: el crecimiento de los ingresos por API alcanza un máximo histórico, Codex se duplica
El Pentágono firma contratos de despliegue de redes militares confidenciales con 7 grandes empresas de IA: Anthropic sigue quedando fuera