Message de Gate News, 22 avril — Brockman a révélé deux développements produits importants lors d’une apparition sur le podcast Core Memory. D’abord, GPT-5.4 Pro a été utilisé par un client pour résoudre un nouveau problème d’Erdős, que Brockman a décrit comme « vraiment impressionnant ».
Brockman a mis en avant l’amélioration spectaculaire des capacités du modèle. Il y a deux ans, OpenAI exigeait une équipe de 20 personnes travaillant pendant deux semaines avec des ressources de calcul substantielles pour entraîner un modèle afin d’obtenir une médaille de bronze à l’International Mathematical Olympiad. Désormais, a-t-il noté, « un modèle entraîné de façon très désinvolte » peut obtenir le même résultat. Il a suggéré que les implications pourraient être profondes : « Si vous appliquiez cette capacité à la découverte de médicaments, personne ne facture cela. »
Deuxièmement, en répondant à une critique de l’animatrice du podcast Ashley Vance selon laquelle les grands modèles de langage manquent de « soul » dans leur écriture, Altman a reconnu, « Nous n’en sommes pas là où nous devons être en matière de personnalisation. » Brockman a ajouté qu’OpenAI a un nouveau modèle en développement pour combler cette lacune. « Vous pourrez l’essayer après la mise en ligne du podcast et nous dire si c’est mieux », a-t-il déclaré.
Les propos soulignent l’accent d’OpenAI sur l’expansion des capacités des modèles au-delà du raisonnement, afin d’inclure des capacités d’écriture plus nuancées et plus personnalisées.
Related News
Bharat1.ai lance le projet de ville $650M AI à Bengaluru
Le PDG de Ripple salue la nouvelle orientation de la SEC, et la réglementation américaine des cryptomonnaies entre dans un mode de réinitialisation
Le fondateur de la startup d’IA et d’énergie nucléaire Fermi appelle à vendre l’entreprise après son départ : la capitalisation boursière a fondu de 83 % en six mois