Confiance.ai : une thèse CIFRE pour l’U2IS

Dans le cadre de Confiance.ai, programme français d’envergure inédite visant à concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance, l’U2IS, le laboratoire d’informatique et d’ingénierie des systèmes d’ENSTA Paris, accueille depuis début novembre un doctorant sur une thèse CIFRE contractualisée avec l’Institut de recherche technologique SystemX.

Pilier technologique du Grand Défi « sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’État, le programme Confiance.ai, démarré en janvier 2021 et piloté par l’Institut de recherche technologique (IRT) SystemX, affiche une dynamique soutenue.

Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associées à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes.

Le programme développe et fédère aujourd’hui l’écosystème national autour de l’IA de confiance et s’est ouvert à de nombreux partenaires associés. Avec 10 autres laboratoires, l’U2IS d’ENSTA Paris a rejoint le collectif après avoir été sélectionné dans le cadre d’un AMI (appel à manifestation d’intérêt) centré sur les défis scientifiques. Il contribuera à la montée en maturité de travaux scientifiques et à la résolution de verrous scientifiques amont.

C’est tout l’objet de la thèse d’Abdelmouaiz Tebjou, qui vient de démarrer et s’inscrit dans le thème de recherche de l’ingénierie système à composante IA. Elle vise à la création d’une composante de supervision des intelligences artificielles.

« Avec l’intelligence artificielle, la question de la confiance par les preuves mathématiques se pose d’autant plus qu’il devient impossible de tester tous les cas de figure, étant donné le nombre de paramètres à prendre en compte. Pour assurer la confiance, notre approche consiste donc à surveiller le système, à rajouter une composante de supervision afin d’intercepter toute décision dangereuse ou critique que pourrait prendre l’intelligence artificielle » précise Goran Frehse, directeur de l’U2IS, le laboratoire d’informatique et d’ingénierie des systèmes d’ENSTA Paris.