Comprendre et intégrer l'IA : enjeux et opportunités pour les entreprises
Comprendre et intégrer l'IA : enjeux et opportunités pour les entreprises
Retour à la liste de résultats
Trans-sectoriel
Éthique
Publiée le 23.02.2021

L’Intelligence Artificielle : reproductrice massive de biais ?

Si l’Intelligence Artificielle est prometteuse à bien des égards pour les entreprises, elle peut représenter également un risque de massification des discriminations et d’erreurs d’interprétation, imputables à l’humain. Une bonne compréhension des potentiels biais et une vigilance accrue sont donc de mise lors de l’implémentation de l’IA.

Publiée le 23.02.2021
workteam IA

Partager

Les biais humains reproduits par l’IA

La particularité de l’IA est sa capacité à « apprendre par elle-même ». Si son fonctionnement correspond à cette définition, il faut garder à l’esprit qu’il se fait à partir de structures d’apprentissage que l’humain lui a inculqué, et des jeux de données dont il l’a nourrie. Rien d’étonnant donc que certaines IA, conformément à la vision inconsciente ou le manque de vigilance de leur créateur, fournissent des résultats discriminants, ne reflétant pas la réalité, culturellement orientés, en un mot : biaisés.

On distingue généralement deux types de biais : le biais statistique (ou biais algorithmique) et le biais cognitif (ou biais sociétal).

  • Le biais statistique est lié à la non-représentativité du jeu de données fourni à l’IA durant sa phase d’apprentissage. En cas de manque de rigueur sur la répartition et sur le respect de l’équité entre les caractéristiques des données, le risque est grand d’obtenir des résultats erronés liés au mauvais échantillonnage. C’est la dérive pointée du doigt de certains systèmes de reconnaissance faciale par exemple, entrainés sur des jeux de données non représentatifs et qui discriminent certains citoyens.
  • Le biais cognitif quant à lui est plus difficile à déceler car il émane de l’inconscient collectif, de la manière de penser, des croyances. Il peut amener le créateur à suivre des modélisations populaires sans s’assurer de leur exactitude. Sa complexité tient à ses fondements culturels, il est donc difficile d’en prendre conscience ou de s’en défaire.

Une nécessaire vigilance dans la conception des algorithmes

Si les biais émanent de la structure culturelle et des schémas de pensée subjectifs des créateurs d’IA, on peut estimer qu’ils ne pourront donc jamais être totalement éradiqués. En conséquence, les processus de vérification et d’audit doivent être menés avec la plus grande méthode tout au long du parcours de l’IA.

L’apport humain pour corriger les biais de l’IA reste paradoxalement indispensable. Concernant les jeux de données, la démarche de réflexion et de vérification doit être lancée en amont de leurs créations : l’équilibre des catégories est-il respecté ? si ce n’est pas le cas, peut-on attribuer un « poids » supplémentaire à une catégorie de donnée pour combler les manques ? Une vigilance accrue devra être observée en cas d’utilisation de données en open source.

L’accès à la chaine de décision de l’algorithme, et par extension à la possibilité de reconnaitre des effets discriminatoires, est primordiale.

Autre enjeu concernant les biais : l’environnement culturel. Les ingénieurs qui travaillent sur l’IA doivent cultiver l’art de la remise en question, et doivent être accompagnés dans cette démarche par l’entreprise qui, par une politique de recrutement diversifiée à la fois des talents et des données, mettra en place les bases pour une conception éthique de l’IA.

Une prise de conscience mondiale des acteurs de l’IA

Depuis quelques années, avec l’essor de l’IA dans le monde entier et la médiatisation des biais, les acteurs du secteur se sont emparés du sujet.
Le mouvement OpenAI a notamment établi une liste des grands principes de design pour une IA plus éthique, tel un test de sécurité avant le lancement, et en continu durant sa durée de vie.

Des géants comme IBM (AI Fairness 360) ou Google (What-if tool), ont une forte expérience de l’IA. Ils ont chacun créé un outil de vérification des algorithmes à l’usage des entreprises. L’objectif est d’analyser la chaine de décision ainsi que les faits et données sur lesquels l’IA s’est appuyée. Ces outils proposent même des pistes de solutions pour atténuer le biais détecté, et donnent un accès open source à une partie des recherches de ces entreprises pionnières pour que tout un chacun puisse travailler sur des solutions d’IA moins biaisées.
Ce qui n’empêche pas Google par exemple de laisser planer le flou quant à son propre algorithme, décrié à de multiples reprises pour ses biais.

Les États et instances internationales s’intéressent également à la question des biais, preuve du levier de compétitivité puissant que représentera l’IA dans les décennies à venir, et des enjeux sociaux qu’elle porte. Le Canada et la France par exemple ont adopté une déclaration commune en juin 2018, dans laquelle ils affirment vouloir œuvrer pour « une intelligence artificielle éthique, responsable, centrée sur l’humain et respectueuse des droits de la personne ».

La conception d’une IA doit s’accompagner d’une réflexion systémique sur les questions éthiques. L’humain est plus que jamais responsable de sa création, et doit veiller à ce que sa vision et son bagage culturel ne reproduisent pas des schémas non vérifiés. C’est sûrement la meilleure occasion de faire travailler l’intelligence collective humaine : mélanger les cultures et les origines pour confronter les points de vue et croyances de chacun, et par conséquent, créer un algorithme respectueux.

 

La conception d’une IA doit s’accompagner d’une réflexion systémique sur les questions éthiques.