Comprendre et intégrer l'IA : enjeux et opportunités pour les entreprises
Comprendre et intégrer l'IA : enjeux et opportunités pour les entreprises
Retour à la liste de résultats
Trans-sectoriel
Éthique
Publiée le 23.02.2021

L’éthique de l’IA : un enjeu majeur d’adoption de la technologie

Alors que l’IA est de plus en plus implémentée dans les entreprises, et par conséquent, dans le quotidien des collaborateurs et des clients, le besoin de réguler certaines dérives actées ou potentielles devient crucial.

Publiée le 23.02.2021
Des collègues qui établissent un plan

Partager

Si l’IA peut être vecteur de performance voire de croissance, cet objectif ne peut être atteint que si toutes les parties prenantes ont confiance en son fonctionnement. L’enjeu éthique de l’IA dépasse par ailleurs le simple cadre de l’entreprise, pour s’ancrer dans des questionnements sociaux, juridiques et politiques au niveau mondial.

L’éthique de la donnée, une vision plurielle et culturelle

Les échanges commerciaux et par conséquent les données ne connaissent pas de frontières. Cependant, les approches quant à la gestion – plus ou moins éthique – des données, diffèrent grandement selon les régions du monde.
Une partie de la population, des collaborateurs et des clients reste donc méfiante face à l’utilisation de ses données, d’autant que l’explication du fonctionnement des IA associées ou de la chaine de responsabilité ne sont pas toujours au rendez-vous.

Un premier pas important a été fait en Europe avec la mise en application du RGPD (règlement général sur la protection des données) en 2018, qui a pour vocation de limiter les usages abusifs des données personnelles par les entreprises. Le RGPD prône notamment le principe de minimisation, c’est-à-dire l’utilisation de données adéquates, pertinentes et en quantité limitée.
A contrario, l’IA a besoin d’analyser et de croiser un maximum de données pour identifier des tendances et produire des résultats tangibles.
On observe donc que la volonté de concevoir une IA plus éthique peut se confronter à la nature même de cette technologie.

L’IA fait face à un autre risque éthique : les biais discriminants. En effet, par manque de vigilance ou par biais culturel, le créateur d’un algorithme peut utiliser des jeux de données mal échantillonnés pour l’apprentissage de l’IA, avec par exemple une catégorie de personnes sous représentée. Les résultats et décisions fournis par l’IA seront donc massivement biaisés si des vérifications et audits ne sont pas menés régulièrement et à chaque étape de l’implémentation de l’IA.

Une approche pluridisciplinaire pour une IA responsable

Afin de contrôler le risque de biais et mener une démarche éthique de l’IA en entreprise, il est primordial de mettre en place une gouvernance dédiée. Cela concerne toutes les entreprises, quelle que soit leur taille. Technologie transverse et opérationnelle qui implique toute l’entreprise, l’IA ne doit pas être gérée uniquement par les services informatiques, mais bien par une équipe pluridisciplinaire.

De manière générale, pour ne pas rester dans la réflexion ou les bonnes intentions, il est important de veiller à la mise en œuvre de mesures concrètes. Par exemple déterminer dès la conception de l’IA comment garantir la protection des données privées, et mettre en place les vérifications et garde fous nécessaires pour éviter, détecter et corriger les biais et erreurs potentiels. Une équipe composée d’experts en IA et de profils non techniques d’horizons divers permettra d’apporter des visions et connaissances plus inclusives ainsi qu’une vigilance accrue quant au respect de la démarche éthique.

Une IA responsable implique également un devoir de transparence. Les clients doivent par exemple être en mesure de comprendre la raison à l’origine de chaque recommandation et prédiction générée par une IA.

Transparence et responsabilité by design

La Commission Européenne travaille depuis plusieurs années sur les enjeux de l’IA, et souhaite porter son approche sur la scène internationale. À cette fin, elle renforce sa coopération avec les partenaires partageant les mêmes idées, comme le Japon, le Canada ou Singapour, et joue un rôle actif dans les discussions et initiatives internationales.

Afin de guider les entreprises dans cette démarche éthique de l’IA, l’Union Européenne a formulé sept principes fondamentaux (1) :

  • Facteur humain et contrôle humain : les systèmes d’IA devraient être les vecteurs de sociétés équitables en se mettant au service de l’humain et des droits fondamentaux, sans restreindre ou dévoyer l’autonomie humaine.
  • Robustesse et sécurité : une IA digne de confiance nécessite des algorithmes suffisamment sûrs, fiables et robustes pour gérer les erreurs ou les incohérences dans toutes les phases du cycle de vie des systèmes d’IA.
  • Respect de la vie privée et gouvernance des données : il faut que les citoyens aient la maîtrise totale de leurs données personnelles et que les données les concernant ne soient pas utilisées contre eux à des fins préjudiciables ou discriminatoires.
  • Transparence : la traçabilité des systèmes d’IA doit être assurée.
  • Diversité, non-discrimination et équité : les systèmes d’IA devraient prendre en compte tout l’éventail des capacités, aptitudes et besoins humains, et leur accessibilité devrait être garantie.
  • Bien-être sociétal et environnemental : les systèmes d’IA devraient être utilisés pour soutenir des évolutions sociales positives et renforcer la durabilité et la responsabilité écologique.
  • Responsabilisation : il convient de mettre en place des mécanismes pour garantir la responsabilité à l’égard des systèmes d’IA et de leurs résultats, et de les soumettre à une obligation de rendre des comptes.

Les adaptations législatives et d’usage en matière d’IA obligent les entreprises à rester en veille constante. Le principal enjeu est de trouver l’équilibre entre la recherche de la performance et l’éthique de l’IA. C’est en développant la compréhension des algorithmes et la confiance dans le traitement éthique, transparent et responsable des données que les entreprises et la société pourront tirer pleinement partie de l’IA.

(1) European Commission, “Ethics guidelines for trustworthy AI,” April 2019.

Le principal enjeu est de trouver l’équilibre entre la recherche de la performance et l’éthique de l’IA.