De nombreux algorithmes d’apprentissage automatique utilisent ceux fournis par les data scientists pour obtenir les résultats souhaités. Qu'il s'agisse d'une anomalie de la chaîne d'approvisionnement, d'une détection d'image d'un cerf traversant la route ou de la bonne réponse à une question ChatGPT, l'ensemble de données utilisé pour entraîner le modèle est important pour comprendre quels biais il peut avoir. (Lire aussi : Équité dans l'apprentissage automatique : éliminer les biais de données.)
Si le modèle d’apprentissage automatique était basé sur un ensemble de données supervisé, cela signifie qu’un humain validait l’exactitude des résultats de l’algorithme d’apprentissage automatique. Si cet humain était biaisé, les résultats seraient faussés en conséquence.
Il existe de nombreux types différents de biais de l’IA et ils peuvent tous exister au sein du même modèle, ce qui rend la détection encore plus difficile. Par exemple, un biais latent est dû à un type d’apprentissage autour d’un ensemble de données qui alimente un stéréotype dans la société humaine – comme supposer que tous les pilotes d’avions de combat sont des hommes.
Quoi qu’il en soit, il existe un moyen de détecter les biais dans les systèmes d’apprentissage automatique. La méthode consiste à fournir au système une large gamme d’entrées, y compris des cas extrêmes, pour pousser le modèle dans ses retranchements. Si vous commencez à détecter que la machine répond de manière répétitive ou se dirige simplement dans la mauvaise direction, poussez plus fort pour voir si vous pouvez obtenir des résultats extrêmement négatifs. Heureusement, Google a créé un outil pour faire exactement cela. Il s'appelle « What-if Tool » et promet de « tester les performances dans des situations hypothétiques, d'analyser l'importance des différentes caractéristiques des données et de visualiser le comportement des modèles entre les modèles ».
Supprimer les préjugés revient à apprendre à un enfant à ne jamais toucher le poêle : voyez si cela se produira une fois, apprenez au modèle que ce comportement était mauvais par expérience, puis apprenez à la machine à ne plus jamais accomplir ce type de tâche. Parce que si vous vous contentez de gronder le résultat final, l'enfant et la machine pourraient s'approcher du poêle à l'avenir, juste pour voir ce qui se passe. (Lire aussi : Apprentissage rapide : une nouvelle façon de former des modèles de base en IA.)