Message de Gate News, 27 avril — Le PDG d’OpenAI, Sam Altman, a publié cinq principes de fonctionnement pour l’entreprise sous sa signature personnelle, indiquant qu’OpenAI pourrait restreindre l’accès des utilisateurs aux capacités des modèles à certaines périodes afin de donner la priorité à la sécurité. Dans la déclaration, Altman a décrit un scénario futur possible où l’entreprise devrait « sacrifier une partie de l’autonomisation en échange d’une plus grande résilience. »
Altman a souligné que les décisions critiques en matière d’IA devraient être prises par des processus démocratiques plutôt que d’être déterminées uniquement par les laboratoires d’IA. Il a défendu les récentes acquisitions à grande échelle d’OpenAI en matière de puissance de calcul, la construction de centres de données dans le monde entier et les efforts d’intégration verticale, en déclarant que l’objectif est de réduire les coûts de l’IA pour rendre la technologie accessible à tous. Altman a noté que les gouvernements pourraient devoir explorer de nouveaux modèles économiques afin d’assurer le partage de la valeur. Il a également mis en avant un scénario de risque spécifique : des modèles extrêmement puissants pourraient abaisser le seuil de création de nouveaux agents pathogènes, exigeant une réponse au niveau de la société.
Altman a réfléchi à l’hésitation historique d’OpenAI à publier les poids de GPT-2, reconnaissant que la prudence, avec du recul, était excessive, mais il a noté que cela a conduit à la stratégie de déploiement itératif que l’OpenAI continue d’employer aujourd’hui.
Related News
Le cours d’IA de Stanford, associé aux leaders de l’industrie comme Huang Renxun et Altman, défie de créer de la valeur pour le monde en dix semaines.
Un agent IA peut déjà reproduire de manière autonome des articles universitaires complexes : Mollick affirme que les erreurs proviennent davantage des textes originaux humains que de l’IA
DeepSeek V4-Pro est lancé avec un coût inférieur de 98 % à celui de GPT-5.5 Pro