Biais de l’IA

20 MOTS DE L’IA FORMATIVE, LE PETIT TEMNA EXPLIQUE

L’IA est une machine à produire des prédictions avec un certain degré d’erreurs acceptables et acceptées.

Mais ces prédictions sont parfois soumises à une critique récurrente : la machine biaise.

Le 23 mai 2016, une enquête de 4 journalistes de l’IA a montré que l’IA d’aide à la décision judiciaire aux Etats-Unis qui détermine le potentiel de récidive des délinquants et qui est très utilisé par les tribunaux depuis l’attribution du montant des cautions, jusqu’à la libération des accusés, avait un biais (https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing).

Elle biaisait en fonction de la race : un accusé noir avait, par exemple, 77 % de chance de plus d’être considéré représenter un risque plus élevé de commettre un futur crime violent qu’un accusé blanc. Cela venait non pas tant de l’algorithme d’optimisation que de l’entraînement.

Si on nourrit la machine plus de noirs délinquants sans aucun racisme algorithmique, la machine biaisera en leur défaveur. Il est nécessaire de mettre des coefficients de correction pour changer les choses.

Cela rappelle Tay, une IA lancée par Microsoft sur Twitter en 2016 qui en moins de 24 heures, il est devenu pronazi, sexiste, raciste, complotiste, injurieux, en appelant à un holocauste… ce qui mis fin à l’expérience.

La première réaction pourrait être de débiaiser la machine.

Et pourtant ?

Si l’on reprend le biomimétisme entre l’homme et la machine, par nature l’homme biaise.

C’est au cœur même de la pensée.

Dans « Funes ou la mémoire » (1944), Jorge Luis Borges racontait l’histoire d’un hypermnésique Funes, il se rappelait de tout. La conclusion de Jorge Luis Borges est qu’il ne pouvait penser, car penser nécessite de supprimer des détails de la vie quotidienne au profit de concepts plus génériques, des étiquettes plus faciles à brasser au sein de paradigmes.

La pensée nécessite de biaiser le réel pour en faire une réalité sociale.

Le biais est la force de l’homme.

La formation aussi utilise ses biais pour transmettre.

C’est l’effet Pygmalion (Robert Rosenthal et Lenore Jacobson, 1968).

Si des scientifiques tirent au hasard 5 élèves dans la classe et qu’ils disent au professeur que d’après leurs études qu’ils ont un très haut potentiel, à la fin de l’année, ils auront de meilleurs résultats.

Le regard biaisé du professeur va permettre la performance de la formation.

Le biais n’est pas forcément négatif.

Pourquoi la machine, serait-elle moins biaisée que l’homme ?

Les biais d’agrégation de la machine sont identifiés dans la littérature par le paradoxe de Simpson (1951). Lorsqu’on observe des groupes séparés et que l’on obtient un résultat comme par exemple la performance d’une formation par métier, les résultats peuvent s’inverser si on agrège les sous-groupes.

Ce paradoxe contre-intuitif nécessite de faire intervenir des experts du domaine, Humain-in-the-loop comme nous l’avons vu, qui redonne du sens aux chiffres. Ils biaisent les résultats pour en faire des outils de décisions exploitables socialement.

L’homme comme la machine biaise. Certains proposent pour l’un comme pour l’autre de débiaiser les deux entités.

Autrement dit, de rendre conscients les biais pour voir s’ils sont socialement acceptables.

L’homme est un être inconscient qui ne peut pas ne pas être biaisé, il doit donc comme pour la machine identifier ses biais et les corriger dans le sens que le social est prêt à accepter.

Finalement, l’IA peut être un outil qui met en valeur les biais de l’homme pour lui permettre d’être une meilleur version de lui-même.

Fait à Paris, le 07 novembre 2024

@StephaneDIEB pour vos commentaires sur X