LE CERCLE DE L'IA/POINT DE VUE - L'intelligence artificielle pose de nombreux défis éthiques à cause des biais racistes ou sexistes qui peuvent être contenus dans les données qui servent à l'entraînement des algorithmes. Mais ce n'est pas une fatalité, selon Marie Crappe, CTO chez StaffMe.
Avec nos smartphones et tous les services que nous sollicitons (réseaux sociaux, vidéo à la demande, applications de géolocalisation, etc.), nous sommes déjà des utilisateurs quotidiens de l'intelligence artificielle , souvent sans même le savoir. Chacun reconnaît volontiers son extraordinaire potentiel économique, scientifique et sociétal, mais l'IA suscite aussi des craintes à la mesure de sa puissance. On s'inquiète des emplois qu'elle pourrait détruire et l'on redoute l'émergence d'un « arbitraire numérique », conséquence de décisions invérifiables , incontrôlables et acceptées sans discussion.
Dans tous les domaines où l'humain est concerné (ressources humaines, éducation, justice...) et où l'intégrité physique est en jeu (santé, transport, maintien de l'ordre...), cette ambivalence est exacerbée. En matière de ressources humaines , par exemple, les bénéfices de l'intelligence artificielle peuvent être considérables, que ce soit pour éliminer des tâches fastidieuses ou identifier le meilleur profil pour un poste donné, mais la frontière avec des usages beaucoup plus discutables est ténue. Certaines entreprises, en particulier aux Etats-Unis, exploitent déjà les images d'entretiens filmés pour déceler des micro-expressions révélatrices, par exemple, de l'honnêteté des candidats. Et les chercheurs Yilun Wang et Michal Kosinski de l'Université de Stanford ont mis au point un algorithme capable de prédire à 81 % l'orientation sexuelle d'un homme à partir d'une simple photo... On imagine aisément les discriminations qui pourraient en résulter s'il était appliqué à l'analyse de CV.
Les biais tapis dans les données
Une des particularités de l'IA est que ce ne sont pas seulement ses usages qui peuvent être préoccupants, mais la façon même dont l'outil est forgé. Ainsi, beaucoup craignent que ses biais ou sa partialité ne soient inscrits dans le code lui-même, lequel ne ferait que refléter les préjugés de son concepteur. Ce n'est pas tout à fait exact.
Bien que l'IA puisse désigner diverses notions, elle fait le plus souvent référence au « machine learning » (ou « apprentissage automatique »), soit la capacité d'un système à déceler dans une série d'exemples des points communs qu'il utilise ensuite pour analyser de nouvelles situations. La machine se contente donc de reproduire la logique sous-jacente des données sources, y compris leurs biais. Dit autrement, l'IA d'un logiciel de recrutement ne décide pas s'il est fondé ou non d'embaucher de préférence un homme ; elle se borne à constater que, jusqu'à présent, en être un pouvait manifestement un critère déterminant.
Les données d'entraînement étant à l'origine des biais, on pourrait imaginer qu'il suffirait pour les éliminer de les corriger. Pourtant, d'un point de vue éthique, ce serait encore moins acceptable car cela reviendrait ni plus ni moins à déformer la réalité qu'elles recouvrent pour la conformer d'autorité à une vision idéale et forcément partiale. À l'inverse, un autre point de vue est de considérer que ces biais étant le reflet de la réalité, il n'y a pas lieu de faire quoi que ce soit. Mais peut-on décemment se laver les mains d'injustices flagrantes au prétexte que « c'est comme ça » ?
En fait, bien comprendre les mécanismes qui peuvent conduire à des biais discriminatoires ou à des usages discutables de l'IA permet d'envisager des solutions à la fois pratiques et éthiques.
Davantage de transparence
Sans pour autant corriger les données, on peut notamment en supprimer les dimensions sensibles et risquées (genre, lieu de naissance ou de résidence, préférences alimentaires...).
Comme il est parfois très difficile d'anticiper les corrélations que découvrira la machine, on peut aussi pratiquer sur les algorithmes des tests de biais de la même manière qu'on teste leurs performances, comme cinq chercheurs l'ont fait avec succès sur l'algorithme d'analyse sémantique Word2vec de Google , lequel avait absorbé les clichés sexistes des textes utilisés pour l'étalonner.
On peut également introduire davantage de transparence en dévoilant non pas l'algorithme lui-même, mais les principaux critères sur lesquels il déclarera s'être basé pour se décider. Quitte, là encore, à retravailler dans une seconde passe ceux qui introduiraient des biais inattendus et indésirables. Enfin, pour les applications d'IA les plus sensibles, on peut aller jusqu'à imaginer des procédures d'audit, de certification, voire, comme pour les médicaments, d'autorisation de mise sur le marché. Des démarches allant en ce sens ont d'ailleurs vu le jour récemment, avec par exemple le serment d'Holberton-Turing , véritable serment d'Hippocrate pour les professionnels de l'intelligence artificielle.
Des pouvoirs publics, qui disposent du levier réglementaire, aux développeurs, qui doivent veiller à leurs pratiques, en passant par les dirigeants d'entreprise, qui décident in fine des limites qu'ils entendent se donner, c'est toute une chaîne de responsabilités bien réelles qui doit encadrer l'IA. Celle-ci n'est donc pas une dangereuse créature vouée à s'affranchir de ses créateurs, mais un outil comme un autre, dont la puissance réclame seulement davantage d'éthique et de vigilance.
Marie Crappe est Chief Technology Officer chez StaffMe