L’Intelligence Artificielle est porteuse de progrès d’innovation dans de nombreux secteurs, comme l’agriculture, la santé, ou encore l’industrie. Elle peut produire des résultats bénéfiques pour les entreprises d’un point de vue économique, mais aussi apporter des avantages au niveau social et environnemental.
Cependant, l’IA peut aussi être à l’origine de nouveaux risques ou de conséquences négatives pour les personnes ou la société. L’enjeu est donc d’adopter une approche équilibrée entre avantages et inconvénients.
Réglementer pour mettre en balance avantages et inconvénients des IA
En avril 2021, la Commission européenne a proposé “L’IA Act” : une proposition de Règlement européen établissant des règles harmonisées concernant l’IA afin de mettre en avant les avantages et diminuer les risques. Une version amendée a été adoptée le 14 juin 2023 par le Parlement européen et est en cours de discussion avec le Conseil de l’UE et la Commission européenne.
Les objectifs de ce règlement sont multiples :
- favoriser le développement d’IA responsables, transparentes et dignes de confiance
- adopter une approche fondée sur les risques, en les classant par catégories : minimes, faibles, élevés ou inacceptables
- faciliter l’innovation et les investissements dans les IA tout en maintenant la sécurité et droit des utilisateurs
La majorité des IA qui existent aujourd’hui dans l’Union Européenne et qui sont appliquées en entreprise sont dans les catégories minimes et faibles.
Principal enjeu juridique : des données de qualité
L’enjeu principal dans le développement des algorithmes d’IA se situe autour des données. La donnée doit être fiable et licite, et pour savoir si c’est le cas, il faut s’intéresser à sa source. Est-ce que les données sont internes à l’entreprise ? Est-ce qu’elles ont été achetées ? Est-ce qu’elles sont accessibles librement sur internet ?
En fonction de la réponse à ces questions, on pourra se demander si on a le droit de les utiliser et pour quels usages. D’autant plus, qu’une fois qu’elle est collectée, elle doit être mise à jour et conservée correctement pour que les usages qui en découlent soient licites.
En effet, la data étant le carburant de l’IA, si la source des données n’est pas fiable ou que les données sont biaisées, les résultats ne seront pas exploitables et également biaisés.
IA et RGPD : quels impacts ?
Le RGPD ne s’applique qu’aux données personnelles, donc il n’aura pas d’impact si les données ne sont pas identifiantes ou si elles sont anonymisées. Par exemple, des capteurs dans une pièce qui indiquent uniquement le nombre de personnes présentes ne vont pas fournir des données qui identifient spécifiquement et directement ces personnes, contrairement à une caméra. Dans ce cas, le RGPD ne s’appliquera pas.
Il conviendra cependant de déterminer s’il n’existe pas de risques de réidentification. Par exemple, si on connait le nombre de personnes dans la pièce à partir d’un capteur ainsi que le nombre et le nom des salariés qui ont badgé et qui sont susceptibles d’être présents dans la pièce, indirectement on peut alors connaitre le nom des personnes présentes dans la pièce.
Si on collecte des données personnelles, il existe des moyens d’anonymiser ou pseudonymiser la donnée pour limiter les impacts juridiques. Des données personnelles pourront être utilisées dans le cadre d’un système d’IA mais sous réserve du respect du RGPD et du respect de la protection de la vie privée des personnes.
Une IA éthique : miser sur la transparence
Mais le débat peut être d’ordre éthique : si la source est licite et qu’on respecte le RGPD, est-ce que ça suffit ? Jusqu’où peut-on aller ? Jusqu’à quel point peut-on laisser un algorithme prendre des décisions (pour une demande de crédit, pour un job…), à quel moment l’humain doit intervenir ?
Une notion fondamentale doit être respectée et est au cœur des enjeux de l’IA : la transparence. La transparence permettra d’assurer une confiance dans l’IA. Les utilisateurs doivent savoir qu’ils sont face à une IA et comprendre les enjeux et les décisions automatiques qui sont prises par celle-ci. L’humain doit toujours être remis au cœur de l’IA, car elle ne fonctionne pas seule.
L’enjeu est aussi de permettre à l’humain de garder la main sur l’IA, par exemple à travers des mesures de supervision, pour empêcher les détournements et la systématisation de certaines erreurs commises par l’utilisation d’une IA.
Quels sont les outils qui existent pour évaluer un système d’IA ?
Lorsqu’on développe un algorithme d’Intelligence Artificielle, le meilleur moyen de maîtriser l’équilibre entre les avantages et les risques de l’IA est de se soumettre aux méthodes d’auto-évaluation qui existent.
Il y a un grand nombre d’outils disponibles sur le marché qui permettent de savoir si on est en conformité ou non. En voici quelques-uns :
- Guide d’auto-évaluation de la CNIL : grille d’analyse qui permet aux entreprises d'évaluer elles-mêmes la maturité de leurs systèmes sous l’angle du RGPD, pour des IA qui intègrent des données à caractère personnel
- L’outil Ethical AI créé par le syndicat professionnel Numeum : il s’agit d’un guide pratique en français qui est porté par une communauté de professionnels ce qui permet d’échanger avec des pairs
- Les travaux sur la standardisation de l’IA publiés par l’ISO
- Tableau d’identification et d’évaluation des risques et opportunités en IA : permet de comparer certains algorithmes d’IA de façon visuelle
- Questionnaire ALTAI : grille d’évaluation développée par un groupe d’experts de la Commission européenne pour une IA digne de confiance. Elle permet d’avoir une feuille de route, un code de conduite.
Le but est d’utiliser ces méthodes d’auto-évaluation au plus tôt, dès le démarrage du développement de votre algorithme, pour se rendre compte des contraintes dès le début afin que votre IA soit fiable et digne de confiance. Surtout c’est une manière de prouver qu’un système d’IA respecte un certain niveau de conformité et d’éthique.
Ces propos ont été partagés par Ludivine Le Naventure, avocate chez Clairmont Novus, qui accompagne les entreprises dans leurs projets innovants, à l’occasion de l’événement “Data & IA : prédire de façon pragmatique et éthique” qui s’est déroulé le 08 juin 2023. Vous pouvez retrouver le support de présentation et l’audio de cet événement dans notre espace ressources.