Curieuse question… Une Intelligence Artificielle n’est après tout qu’un algorithme mathématique, nous pourrions donc penser en toute logique qu’un algorithme est forcément objectif, puisqu’il ne peut pas avoir d’opinion propre. Mais est-ce une réalité aujourd’hui ?
L’IA a-t-elle une vision universelle ?
Faisons le test : si l’on tape « femme mariée » dans la barre d’un moteur de recherche, la plupart des images qui seront proposées sont des femmes dans de belles robes blanches, et pourtant, il n’y a qu’une partie du monde qui se marie en blanc. De même, si on tape « CEO » on verra apparaître une grande majorité d’hommes, alors que si on tape « nurse » ce seront plutôt des photos de femmes qui apparaîtront.
Autre outil, autre test : les fonds d’écran de certaines plateformes de visio-conférences qui sont censées flouter le décor qui se trouve autour de l’orateur, n’arrivent pas toujours à faire la distinction quand la personne qui est à l’écran a la peau sombre, et le logiciel fera disparaître son visage en même temps que le fonds.
On pourrait donc en conclure que l’IA est sexiste et raciste, avec une vision centrée sur l’occident, mais la réalité est que la technologie est neutre en elle-même. C’est la façon dont elle sera développée et surtout entraînée qui va orienter sa façon de répondre aux demandes.
Tout algorithme d’IA, pour fonctionner, doit être entraîné sur une base de données suffisamment importante, qui lui est fournie par son créateur, et cette base de données comportera forcément une part de la culture de l’humain qui la crée. Si celui-ci n’a pas entraîné son algorithme avec suffisamment de visages aux carnations différentes, celui-ci ne pourra pas être en capacité de distinguer les subtilités des couleurs de peau plus foncées.
Si de tels résultats se produisent, c’est donc que les humains à l’origine de l’IA y ont introduit leur propre vision, forcément partielle, du monde.
L’IA est le reflet de notre société
Une intelligence artificielle ne crée pas de nouveaux problèmes, elle est le reflet de notre société, le miroir grossissant de ce qui existe déjà . Si l’algorithme de sélection de CVs chez les géants de la Silicon Valley discriminait toutes les femmes et les personnes de couleur, ce n’est pas qu’elle créait ces biais racistes et sexistes dans le recrutement : ils existaient déjà , mais en étant reproduits par une IA ces biais peuvent être prouvés et le quantifiés. L’IA ne fait que mettre en exergue les biais déjà existants dont on n’avait pas toujours conscience
Est-il possible de contrebalancer les biais présents dans l’algorithme ?
Pour que l’IA ait une vision universelle et devienne un véritable outil inclusif, il faudrait lui fournir suffisamment de données diversifiées pour qu’elle les prenne en compte. Malheureusement, ce n’est pas toujours possible de créer un « corpus idéal » car les données ne sont pas disponibles ou n’existent pas. Dans le milieu de la santé par exemple, il est très difficile d’obtenir des données, et pour que l’algorithme prenne en compte toutes les populations, il faudrait pouvoir recruter suffisamment de représentants de chacune des populations, ce qui n’est pas toujours possible.
Il faut donc être conscient des biais qui existent et agir en conscience par rapport à eux : ne pas être simples consommateurs de ce que nous fournissent les IA, mais être capables d’exercer notre esprit critique face au résultat fourni. L’IA n’est qu’un outil d’aide à la décision, et l’humain doit toujours intervenir en conscience dans l’étape de décision finale.
Des équipes diversifiées pour confronter les points de vue
La meilleure solution pour rendre tout outil numérique véritablement inclusif est de s’assurer que l’équipe humaine qui la fabrique soit suffisamment diversifiée pour que toutes les visions soient prises en compte. Une équipe diversifiée va pouvoir confronter ses différents points de vue, ce qui ne va pas toujours simplifier le travail. Mais la nécessité d’être mieux préparé à cette friction et à cette confrontation va permettre d’obtenir de meilleurs résultats. Katherine W. Phillips, théoricienne américaine écrivait en 2014 : « Le simple fait d’interagir avec des individus différents oblige les membres du groupe à mieux se préparer, à anticiper d’autres point de vue »
Chez ADN Ouest nous croyons à ces valeurs de diversité et d'inclusion, c’est pourquoi nous portons de nombreuses actions dont l’objectif est d’attirer les jeunes filles et les publics éloignés vers les filières numériques (Girls’R Coding, Safari des métiers, Invest in Digital People…)
Et si le sujet de l'inclusion vous intéresse, ADN Solidarity, le fonds de dotation d’ADN Ouest, et la communauté ADN Numérique Responsable organisent le 12 octobre prochain un séminaire dédié à l’inclusion dans les métiers du numérique.