Skip to main content
Comment la transparence peut faire avancer la recherche scientifique — et améliorer notre relation avec l’IA générative.

Quand on pose une question à ChatGPT, on ne sait pas vraiment comment il parvient à sa réponse. Bien sûr, on peut deviner qu’un mélange de science des données, d’algorithmes et d’apprentissage y est pour quelque chose. Mais il existe un fossé entre l’utilisateur et l’IA, une sorte de boîte noire entre nos questions et ses réponses. De nombreux experts en intelligence artificielle et en apprentissage automatique admettent qu’on ne sait tout simplement pas ce que font certains modèles dans cette boîte noire.

Ce problème est souvent désigné sous le nom d’interprétabilité de l’IA — soit l’idée que les modèles d’IA devraient être lisibles et transparents à chaque étape. Ce n’est peut-être pas essentiel quand on demande une recette avec ce qu’il reste dans le frigo. Mais en science, où la transparence, la précision et la compréhension sont indispensables, c’est crucial.

C’est là qu’intervient la chercheuse Anindita Maiti, de l’Institut Périmètre. Elle conçoit des modèles d’IA qui placent l’interprétabilité au premier plan, puis les utilise pour étudier des aspects fondamentaux de la physique des particules et de la mécanique quantique. Ce défi la passionne depuis ses études en physique théorique des hautes énergies à la Northeastern University, à Boston.

Faire le lien entre l’IA et la physique : Le travail d’Anindita Maiti sur l’interprétabilité transforme notre façon de comprendre l’apprentissage machine en science.

« Je travaillais sur un projet où nous utilisions l’apprentissage par renforcement pour analyser certains aspects d’un modèle physique, se souvient-elle. Je me posais constamment des questions sur l’interprétabilité. J’avais moi-même écrit le code, donc il ne pouvait pas me donner des résultats absurdes. Mais je me demandais quand même ce qui se passait à chaque niveau du programme. »

Maiti voulait comprendre pourquoi le programme donnait certaines réponses. Pas seulement pour vérifier qu’il sortait les bons résultats, mais pour utiliser l’IA dans des contextes précis où il faut reconnaître des motifs, des symétries et d’autres structures. Cela inclut des données issues des collisionneurs de particules, qui contiennent des indices sur des constituants subatomiques au-delà du Modèle standard. « Quand on analyse les signatures dans un collisionneur, on capte énormément de signaux provenant de différentes particules fondamentales. Beaucoup de ces signaux se ressemblent à tel point qu’on ne peut parfois même pas distinguer deux particules différentes », explique-t-elle. « L’IA et l’apprentissage machine ont un grand avantage ici, car ils sont très bons pour reconnaître les motifs et détecter de subtiles différences entre divers types de signaux. »

Quand plus de données crée plus de problèmes

Alors, comment séparer de manière fiable les signaux du bruit dans une IA? Comment exploiter cette capacité de reconnaissance des motifs pour faire progresser la science?

L’approche dominante consiste simplement à fournir davantage de données d’entraînement à un modèle d’IA. Une fois qu’il en a suffisamment, en théorie, il peut faire de meilleures prédictions et donner des réponses plus précises. Pour Maiti, cette logique pose problème.

« Ce qui se passe avec l’IA et l’apprentissage machine, c’est que le réseau neuronal apprend les motifs et attributs associés aux données, explique-t-elle. Mais il va plus loin. Le modèle apprend ce qui est caché dans les données. »

Or, dans les problèmes de physique fondamentale, il existe énormément d’attributs cachés et de variables que les modèles d’IA les plus avancés ne peuvent pas apprendre de manière intelligente.

En somme, il y a tellement de données, et tellement de phénomènes semblables, qu’une IA ne peut pas vraiment découvrir ce qui est caché juste en augmentant la quantité de données d’entraînement. C’est un peu comme tenter d’éteindre un feu avec de l’essence : plus on en ajoute, plus ça s’emballe.

Plus de données, plus de problèmes : Donner plus d’information à l’IA ne mène pas toujours à de meilleures découvertes. L’interprétabilité exige une approche plus intelligente.

C’est pourquoi Maiti propose une autre approche : au lieu d’ajouter toujours plus de données, pourquoi ne pas contraindre l’IA à opérer à l’intérieur d’un cadre théorique défini? Ainsi, on connaît parfaitement ses paramètres et on peut l’utiliser pour faire de la reconnaissance de motifs avancée dans des contextes étroitement contrôlés. Cela permet une meilleure interprétabilité — et plus de fiabilité.

« Quand on utilise un modèle d’IA, il n’est pas toujours nécessaire de chercher à l’optimiser », dit-elle. « Prenez simplement le réseau neuronal — cette boîte noire pleine de boutons et de commutateurs — et prenez la théorie que vous voulez lui faire apprendre. C’est cette théorie qui vous dira comment vous devez contraindre les boutons et commutateurs du réseau neuronal. »

Les statistiques de la modélisation par IA

Mais quel est le principe mathématique qui permet tout cela? Le secret réside dans les statistiques. Prenons, par exemple, la théorie quantique des champs, qui est utilisée en physique des particules pour construire des modèles physiques des particules subatomiques. En utilisant une IA contrainte par une théorie quantique des champs — comme structure de ses « boutons et commutateurs » —, on peut employer les statistiques pour vérifier la distribution des sorties, qui devrait correspondre au cadre théorique initial.

« La théorie quantique des champs, c’est une statistique appliquée à un certain type de champ quantique. Or, un type de champ quantique particulier représente essentiellement une particule fondamentale. Chaque particule fondamentale a son propre type de champ quantique, et la théorie quantique des champs est une description statistique de ces particules à travers ce paradigme », explique Maiti.

« Ce que vous faites, c’est contraindre les statistiques du réseau neuronal pour qu’elles correspondent aux statistiques de la théorie quantique des champs. Tous les différents ensembles de chiffres produits en sortie vont alors correspondre à une seule distribution statistique — et cette distribution partage le même point de vue que la théorie. »

Autrement dit, si vous créez un cadre théorique très précis dans lequel l’IA fonctionne, vous pouvez ensuite analyser ses résultats à rebours, les rattacher à la théorie, et comprendre comment elle est arrivée à ses conclusions.

Une boîte noire devenue un peu plus transparente.

À propos de l’IP

L'Institut Périmètre est le plus grand centre de recherche en physique théorique au monde. Fondé en 1999, cet institut indépendant vise à favoriser les percées dans la compréhension fondamentale de notre univers, des plus infimes particules au cosmos tout entier. Les recherches effectuées à l’Institut Périmètre reposent sur l'idée que la science fondamentale fait progresser le savoir humain et catalyse l'innovation, et que la physique théorique d'aujourd'hui est la technologie de demain. Situé dans la région de Waterloo, cet établissement sans but lucratif met de l'avant un partenariat public-privé unique en son genre avec entre autres les gouvernements de l'Ontario et du Canada. Il facilite la recherche de pointe, forme la prochaine génération de pionniers de la science et communique le pouvoir de la physique grâce à des programmes primés d'éducation et de vulgarisation.

Pour de plus amples renseignements, veuillez vous adresser à :
Mike Brown
Gestionnaire, Communications et médias
416-797-9666