Michael Irwin Jordan, professeur à l’Université de Californie à Berkekey et titulaire de la chaire "marchés et apprentissage" à l’INRIA.
Une vision économique de l’IA
Michael Irwin Jordan, figure incontournable en statistique et en économie, propose une approche inédite de l’IA en l’intégrant aux principes économiques. Il rappelle que l’IA, née à Dartmouth en 1956, s’est développée grâce au machine learning et aux avancées en optimisation. L’essor des grands modèles de langage (LLMs) a relancé les débats, mais Jordan nuance leur portée : ces modèles ne sont pas des intelligences autonomes, mais des systèmes d’agrégation de connaissances humaines. Il plaide pour une IA pensée comme un écosystème interconnecté, s’inspirant des marchés économiques pour équilibrer offre, demande et incitations. L’avenir de l’IA, selon lui, repose sur une approche mêlant algorithmes et principes économiques pour garantir des systèmes durables et alignés avec les valeurs humaines.
Bernhard Schölkopf, directeur scientifique de l'Institut ELLIS et professeur à l'École polytechnique fédérale de Zurich.
L’IA doit intégrer la causalité
Pionnier de l’apprentissage causal, Bernhard Schölkopf souligne une lacune majeure des modèles actuels : leur incapacité à raisonner au-delà des corrélations. Il plaide pour l’intégration de modèles causaux, représentés sous forme de graphes, permettant d’identifier les véritables relations entre les variables. Cette approche améliorerait la robustesse et la généralisation des IA, notamment dans la vision et le langage. Il critique les LLMs actuels, qu’il compare à un champion de Scrabble connaissant tous les mots d’une langue sans en comprendre le sens. Selon lui, seule une IA capable de manipuler des représentations causales pourra véritablement raisonner et interagir avec le monde réel.
Yann Le Cun, directeur scientifique de l'IA de Meta.
Dépasser les limites des LLMs
Yann Le Cun remet en question l’approche dominante des grands modèles de langage, qu’il juge insuffisante pour comprendre le monde physique, raisonner avec bon sens et planifier hiérarchiquement. Il critique leur nature purement statistique, source d’erreurs et de "hallucinations". En réponse, il propose des modèles basés sur l’énergie et des architectures comme JEPA, qui ne génèrent pas de texte mais apprennent des représentations abstraites du monde. Il insiste sur l’importance des plateformes open-source pour éviter la concentration du pouvoir dans quelques entreprises et favoriser une IA plus collaborative et accessible. Pour lui, l’avenir de l’IA passe par des systèmes capables d’interagir avec leur environnement et d’organiser leurs connaissances comme le ferait un cerveau humain.
Emmanuel Candès, professeur à l'université Stanford, titulaire de la chaire Barnum-Simons en mathématiques et statistique.
Vers une IA de confiance grâce aux statistiques
Le discours d'Emmanuel Candès a exploré la complexité et la fiabilité de l'IA, en mettant l'accent sur la pensée statistique. Il a présenté un nouveau modèle, S1, qui surpasse Deepseek R1 avec moins d'exemples d'entraînement, soulignant l'importance de la qualité des données. Il a discuté de l'utilisation de données synthétiques pour améliorer les LLMs dans des domaines de niche et du rôle de la confiance statistique pour garantir des prédictions fiables de l'IA. Son message clé était qu'intégrer le raisonnement statistique au LLM entre autres basé sur des techniques de prédiction conformelles peut rendre les systèmes d'IA plus sûrs et dignes de confiance.
Au final, ces interventions dessinent un futur où l'intelligence artificielle ne se limite pas à la puissance des LLMs, mais intègre des principes économiques, la causalité, l’IA de confiance et des architectures innovantes pour atteindre une intelligence véritablement fonctionnelle et éthique.
Gianni Franchi