L’Intelligence Artificielle est porteuse de progrès d’innovation dans de nombreux secteurs, comme l’agriculture, la santé, ou encore l’industrie. Elle peut produire des résultats bénéfiques pour les entreprises d’un point de vue économique, mais aussi apporter des avantages au niveau social et environnemental.
Cependant, l’IA peut aussi être à l’origine de nouveaux risques ou de conséquences négatives pour les personnes ou la société. L’enjeu est donc d’adopter une approche équilibrée entre avantages et inconvénients.
Réglementer pour mettre en balance avantages et inconvénients des IA
Principal enjeu juridique : des données de qualité
L’enjeu principal dans le développement des algorithmes d’IA se situe autour des données. La donnée doit être fiable et licite, et pour savoir si c’est le cas, il faut s’intéresser à sa source. Est-ce que les données sont internes à l’entreprise ? Est-ce qu’elles ont été achetées ? Est-ce qu’elles sont accessibles librement sur internet ?
En fonction de la réponse à ces questions, on pourra se demander si on a le droit de les utiliser et pour quels usages. D’autant plus, qu’une fois qu’elle est collectée, elle doit être mise à jour et conservée correctement pour que les usages qui en découlent soient licites.
Le RGPD ne s’applique qu’aux données personnelles, donc il n’aura pas d’impact si les données ne sont pas identifiantes ou si elles sont anonymisées. Par exemple, des capteurs dans une pièce qui indiquent uniquement le nombre de personnes présentes ne vont pas fournir des données qui identifient spécifiquement et directement ces personnes, contrairement à une caméra. Dans ce cas, le RGPD ne s’appliquera pas.
Il conviendra cependant de déterminer s’il n’existe pas de risques de réidentification. Par exemple, si on connait le nombre de personnes dans la pièce à partir d’un capteur ainsi que le nombre et le nom des salariés qui ont badgé et qui sont susceptibles d’être présents dans la pièce, indirectement on peut alors connaitre le nom des personnes présentes dans la pièce.
Si on collecte des données personnelles, il existe des moyens d’anonymiser ou pseudonymiser la donnée pour limiter les impacts juridiques. Des données personnelles pourront être utilisées dans le cadre d’un système d’IA mais sous réserve du respect du RGPD et du respect de la protection de la vie privée des personnes.
Une IA éthique : miser sur la transparence
Mais le débat peut être d’ordre éthique : si la source est licite et qu’on respecte le RGPD, est-ce que ça suffit ? Jusqu’où peut-on aller ? Jusqu’à quel point peut-on laisser un algorithme prendre des décisions (pour une demande de crédit, pour un job…), à quel moment l’humain doit intervenir ?
Une notion fondamentale doit être respectée et est au cœur des enjeux de l’IA : la transparence. La transparence permettra d’assurer une confiance dans l’IA. Les utilisateurs doivent savoir qu’ils sont face à une IA et comprendre les enjeux et les décisions automatiques qui sont prises par celle-ci. L’humain doit toujours être remis au cœur de l’IA, car elle ne fonctionne pas seule.
L’enjeu est aussi de permettre à l’humain de garder la main sur l’IA, par exemple à travers des mesures de supervision, pour empêcher les détournements et la systématisation de certaines erreurs commises par l’utilisation d’une IA.
Quels sont les outils qui existent pour évaluer un système d’IA ?
Lorsqu’on développe un algorithme d’Intelligence Artificielle, le meilleur moyen de maîtriser l’équilibre entre les avantages et les risques de l’IA est de se soumettre aux méthodes d’auto-évaluation qui existent.
Il y a un grand nombre d’outils disponibles sur le marché qui permettent de savoir si on est en conformité ou non. En voici quelques-uns :
Guide d’auto-évaluation de la CNIL : grille d’analyse qui permet aux entreprises d'évaluer elles-mêmes la maturité de leurs systèmes sous l’angle du RGPD, pour des IA qui intègrent des données à caractère personnel
L’outil Ethical AI créé par le syndicat professionnel Numeum : il s’agit d’un guide pratique en français qui est porté par une communauté de professionnels ce qui permet d’échanger avec des pairs
Questionnaire ALTAI : grille d’évaluation développée par un groupe d’experts de la Commission européenne pour une IA digne de confiance. Elle permet d’avoir une feuille de route, un code de conduite.
Le but est d’utiliser ces méthodes d’auto-évaluation au plus tôt, dès le démarrage du développement de votre algorithme, pour se rendre compte des contraintes dès le début afin que votre IA soit fiable et digne de confiance. Surtout c’est une manière de prouver qu’un système d’IA respecte un certain niveau de conformité et d’éthique.
En Pays de la Loire, ADN Ouest est membre du consortium européen DIVA, l’un des 10 EDIH français sélectionné et financé par la Commission européenne dans le cadre de « Digital Europe ». DIVA vous propose, quels que soient votre taille et votre secteur d’activité, un parcours d’accompagnement sur-mesure et complet, pour faire des données et de l’Intelligence Artificielle un levier de performance ou d’innovation.