Le créateur de ChatGPT, OpenAI, a lancé jeudi “o1”, un modèle d’intelligence artificielle (IA) générative d’un nouveau genre, capable de raisonner et de répondre à des questions plus complexes, notamment mathématiques, espérant ainsi réduire le risque d’hallucinations.
« o1 réfléchit avant de répondre », indique OpenAI dans un communiqué publié en ligne. L’entreprise progresse ainsi vers l’objectif qu’elle s’est fixé de mettre au point une IA « générale », c’est-à-dire une intelligence artificielle mais semblable à celle des humains. Sam Altman, la patron d’OpenAI, a félicité ses équipes sur X pour ce « nouveau paradigme : une IA capable de raisonner de manière complexe et généraliste ». Il a toutefois précisé que la technologie « est encore imparfaite, encore limitée, et qu’elle semble plus impressionnante à la première utilisation qu’après y avoir passé plus de temps ». La version bêta de o1 a été mise à disposition dès jeudi, pour les utilisateurs payants de ChatGPT dans un premier temps. Testé par l’AFP sur des questions simples de logique, o1 est parvenu aux mêmes résultats que GPT-4o, mais en prenant plus de temps, et en détaillant plus son raisonnement, au lieu de générer quasi instantanément une réponse. Autre différence, le nouveau modèle n’est pour l’instant pas capable de traiter ou de générer d’autres contenus que du texte.
Une valorisation potentielle à environ 150 milliards de dollars
Ce lancement intervient alors qu’OpenAI cherche à lever des fonds qui pourraient lui permettre d’être valorisée à environ 150 milliards de dollars, ce qui en ferait l’une des entreprises non cotées les plus chères au monde, selon les médias américains. Les investisseurs comprennent Microsoft et le géant des puces Nvidia. D’autres noms ont aussi circulé dans la presse, comme Apple, qui utilise déjà la technologie de la start-up dans son nouveau système d’IA générative, la société de capital-investissement Thrive Capital, ou encore MGX, un fonds d’investissement soutenu par les Émirats arabes unis. Avec ChatGPT, OpenAI a lancé fin 2022 la vague de l’IA générative (production de contenus sur simple requête en langage courant) et est devenue la star de la Silicon Valley. Depuis, de son investisseur principal Microsoft à Google et Meta (Facebook, Instagram), tous les grands groupes technologiques rivalisent à coup d’outils censés aider les humains au quotidien, de la rédaction de messages à l’éducation et à la création artistique. Mais ces « assistants IA » restent des machines qui prédisent – de façon très convaincante – des suites de mots ou des arrangements de pixels, sans conscience et donc sans compréhension de leurs phrases ou de leurs images. Entraînés sur des montagnes de données récoltées en ligne, ils peuvent ainsi halluciner (inventer des faits) et peiner à résoudre des problèmes mathématiques simples.
Rivaliser avec les performances des experts humains
OpenAI a testé son nouveau modèle sur la résolution de problèmes mathématiques ou la production de lignes de codes, et « dans de nombreux tests de référence qui requièrent une forte capacité à raisonner, o1 rivalise avec les performances des experts humains », souligne l’entreprise. Dans une compétition de maths destinée aux lycéens américains, o1 s’est placée « parmi les 500 meilleurs élèves », ajoute la société. « À l’instar d’un être humain qui peut réfléchir longuement avant de répondre à une question difficile, o1 utilise une suite de réflexions », détaille OpenAI. « Il apprend à reconnaître et à corriger ses erreurs. Il apprend à décomposer les étapes délicates en étapes plus simples. Il apprend à essayer une approche différente lorsque l’approche actuelle ne fonctionne pas ». Si le nouveau modèle « hallucine moins », « nous ne pouvons pas dire que nous avons résolu les hallucinations », a néanmoins reconnu Jerry Tworek, un chercheur d’OpenAI interrogé par The Verge. Autre problème des modèles existants, ils fonctionnent comme des boîtes noires pour les utilisateurs. La start-up estime que le nouveau modèle représente une amélioration en matière de sécurité et d’alignement sur les valeurs humaines, car son raisonnement devient « lisible », et il applique mieux les règles de sécurité.