Retour sur les journées scientifiques du sommet pour l’action sur l’intelligence artificielle

Alors que le sommet mondial sur l’intelligence artificielle vient de s’achever, un chercheur en intelligence artificielle de l’ENSTA, Gianni Franchi, a choisi de revenir sur quelques moments forts des journées scientifiques qui se sont déroulées à l’Institut Polytechnique de Paris les 6 et 7 février.

Michael Irwin Jordan, professeur à l’Université de Californie à Berkekey et titulaire de la chaire "marchés et apprentissage" à l’INRIA.

Une vision économique de l’IA

Michael Irwin Jordan, figure incontournable en statistique et en économie, propose une approche inédite de l’IA en l’intégrant aux principes économiques. Il rappelle que l’IA, née à Dartmouth en 1956, s’est développée grâce au machine learning et aux avancées en optimisation. L’essor des grands modèles de langage (LLMs) a relancé les débats, mais Jordan nuance leur portée : ces modèles ne sont pas des intelligences autonomes, mais des systèmes d’agrégation de connaissances humaines. Il plaide pour une IA pensée comme un écosystème interconnecté, s’inspirant des marchés économiques pour équilibrer offre, demande et incitations. L’avenir de l’IA, selon lui, repose sur une approche mêlant algorithmes et principes économiques pour garantir des systèmes durables et alignés avec les valeurs humaines.

Michael Irwin Jordan
Michael Irwin Jordan, professeur à l’Université de Californie à Berkekey et directeur de chaire à l’INRIA

Bernhard Schölkopf, directeur scientifique de l'Institut ELLIS et professeur à l'École polytechnique fédérale de Zurich.

L’IA doit intégrer la causalité

Pionnier de l’apprentissage causal, Bernhard Schölkopf souligne une lacune majeure des modèles actuels : leur incapacité à raisonner au-delà des corrélations. Il plaide pour l’intégration de modèles causaux, représentés sous forme de graphes, permettant d’identifier les véritables relations entre les variables. Cette approche améliorerait la robustesse et la généralisation des IA, notamment dans la vision et le langage. Il critique les LLMs actuels, qu’il compare à un champion de Scrabble connaissant tous les mots d’une langue sans en comprendre le sens. Selon lui, seule une IA capable de manipuler des représentations causales pourra véritablement raisonner et interagir avec le monde réel.

 

Bernhard Schölkopf, professeur à l'École polytechnique fédérale de Zurich
Bernhard Schölkopf, directeur scientifique de l'Institut ELLIS et professeur à l'École polytechnique fédérale de Zurich. Crédit : Hector Fellow Academy

Yann Le Cun, directeur scientifique de l'IA de Meta.

Dépasser les limites des LLMs


Yann Le Cun remet en question l’approche dominante des grands modèles de langage, qu’il juge insuffisante pour comprendre le monde physique, raisonner avec bon sens et planifier hiérarchiquement. Il critique leur nature purement statistique, source d’erreurs et de "hallucinations". En réponse, il propose des modèles basés sur l’énergie et des architectures comme JEPA, qui ne génèrent pas de texte mais apprennent des représentations abstraites du monde. Il insiste sur l’importance des plateformes open-source pour éviter la concentration du pouvoir dans quelques entreprises et favoriser une IA plus collaborative et accessible. Pour lui, l’avenir de l’IA passe par des systèmes capables d’interagir avec leur environnement et d’organiser leurs connaissances comme le ferait un cerveau humain.

 

 

Yann Le Cun, directeur scientifique de l'intelligence artificielle de META
Yann Le Cun, directeur scientifique de l'IA de Meta.

Emmanuel Candès, professeur à l'université Stanford, titulaire de la chaire Barnum-Simons en mathématiques et statistique.

Vers une IA de confiance grâce aux statistiques

Le discours d'Emmanuel Candès a exploré la complexité et la fiabilité de l'IA, en mettant l'accent sur la pensée statistique. Il a présenté un nouveau modèle, S1, qui surpasse Deepseek R1 avec moins d'exemples d'entraînement, soulignant l'importance de la qualité des données. Il a discuté de l'utilisation de données synthétiques pour améliorer les LLMs dans des domaines de niche et du rôle de la confiance statistique pour garantir des prédictions fiables de l'IA. Son message clé était qu'intégrer le raisonnement statistique au LLM entre autres basé sur des techniques de prédiction conformelles peut rendre les systèmes d'IA plus sûrs et dignes de confiance.

Emmanuel Candès, professeur à l'université Stanford
Emmanuel Candès, professeur à l'université Stanford, titulaire de la chaire Barnum-Simons en mathématiques et statistique

Au final, ces interventions dessinent un futur où l'intelligence artificielle ne se limite pas à la puissance des LLMs, mais intègre des principes économiques, la causalité, l’IA de confiance et des architectures innovantes pour atteindre une intelligence véritablement fonctionnelle et éthique.

Gianni Franchi