Interview« Mieux identifier la vérité »… Un chercheur français en IA récompensé

« Ces méthodes permettent de mieux identifier la vérité »… Un chercheur français en intelligence artificielle récompensé

InterviewDirecteur de recherche au CNRS, le Nordiste Sébastien Konieczny a été récompensé par un prix européen pour ses travaux sur l’intelligence artificielle
Gilles Durand

Propos recueillis par Gilles Durand

L'essentiel

  • Le chercheur Sébastien Konieczny a été nommé EuAI Fellow 2024 pour ses travaux dans le domaine de l’intelligence artificielle.
  • Ses recherches se focalisent sur la fusion et la révision des connaissances, notamment par la gestion de l’incohérence.
  • Il part du « théorème du jury de Condorcet » sur la prise de décision collective et qui suppose que toutes les sources ont la même fiabilité.

Les systèmes intelligents peuvent-ils raisonner de manière fiable en présence d’incohérences dans leurs sources d’information ? C’est l’un des grands enjeux du développement de l’intelligence artificielle (IA). Un chercheur nordiste de 50 ans vient d’être nommé EuAI Fellow 2024, un titre, décerné par l’association européenne d’intelligence artificielle qui récompense « l’ensemble de ses activités de recherche portant sur la fusion de croyances et la gestion de l’incohérence ». Rencontre avec Sébastien Konieczny, directeur de recherche CNRS au centre de recherche en informatique de Lens*, dans le Pas-de-Calais.

Comment vivez-vous cette récompense ?

Chaque année, trois ou quatre chercheurs sont récompensés et, en France, nous sommes une vingtaine à avoir obtenu ce titre depuis sa création. C’est toujours agréable de se retrouver parmi eux. Je suis d’autant plus heureux que lorsque j’ai commencé à m’intéresser à l’IA, en 1996, c'était presque honteux d’en faire. Le grand âge d’or des années 1980, avec les débuts de raisonnement des premiers systèmes experts à partir de connaissances, c’était terminé. Les scientifiques s’étaient rendu compte que, malgré leurs performances impressionnantes sur certaines applications, ça ne pouvait pas résoudre tous les problèmes.

Quel est votre thème de recherche ?

Je me concentre sur deux grandes catégories de problèmes : la fusion et la révision de connaissances. Je m’intéresse à la modélisation du raisonnement. Comment raisonner à partir d’informations incertaines. Un système intelligent reçoit, par exemple, une information par une source fiable qui lui démontre que ses connaissances initiales sont erronées. Il doit alors faire le tri pour remplacer ses connaissances par de nouvelles. C’est indispensable, par exemple, pour que des robots autonomes puissent réagir à des situations imprévues.

Quelles en sont les applications concrètes ?

Les fausses informations fleurissent, il est donc nécessaire d’avoir des méthodes théoriques qui permettront d’estimer la fiabilité d’une source, comme un média, et d’évaluer de manière automatique à quel point, ce que cette source propage, est fiable.

Quel est le point de départ de vos travaux ?

Je tente, par exemple, d’apporter de nouvelles généralisations au « théorème du jury de Condorcet », un intellectuel du XVIIIe siècle, sur le vote et la prise de décision collective. Car ce théorème émet l’hypothèse que tout le monde a la même fiabilité, ce qui n’est généralement pas le cas dans la vie de tous les jours. Pour se rapprocher de la réalité, nous avons proposé des méthodes, à l’aide de formules mathématiques, qui tentent d’estimer la fiabilité de chaque source en comparant leurs réponses. Ces méthodes permettent de mieux identifier la vérité que celles qui supposent la même fiabilité pour chaque source d’information.

Ça paraît évident dit comme ça…

C’est vrai, sauf que les mathématiques n’autorisent pas les incohérences. Donc dès que des informations se contredisent et créent du conflit, ça devient compliqué. Prenez, par exemple, un groupe de trois personnes ! La première dit qu’un pingouin est un oiseau, la deuxième que les oiseaux volent et la troisième qu’un pingouin ne vole pas. Notre cerveau détecte tout de suite l’incohérence car nous savons que « les oiseaux volent » n’est pas une règle absolue. Il existe des exceptions dont fait partie le pingouin. C’est ce raisonnement qu’il faut faire adopter à l’ordinateur.

Est-ce qu’un ordinateur pourra vraiment raisonner comme un être humain, un jour ?

Le défi, c’est de parvenir à modéliser le raisonnement. Jusqu’à présent, l’apprentissage automatique s’est imposé comme un emblème de l’intelligence artificielle moderne. On sait comprendre et reproduire des textes, des voix et des images.

Plus d'infos sur l'intelligence artificielle

Mais permettre à une machine de prendre des décisions, de résoudre des problèmes ou de déduire des conclusions à partir de connaissances, c’est tout aussi difficile et il y a encore tellement de questions auxquelles il faut répondre pour y arriver !

* Le CRIL est une unité mixte de recherche sous cotutelle du CNRS et de l’Université d’Artois.