La régulation de l’intelligence artificielle est au cœur des réflexions de ces derniers mois. En octobre dernier, l’Unesco annonçait l’élaboration d'un instrument sur l'éthique de l'intelligence artificielle. La position de la Commission européenne relance le débat en ce début d’année. Se prononçant en faveur d’une IA respectant « [ses] valeurs et [ses] droits fondamentaux, tels que la dignité humaine et la protection de la vie privée », l’institution prône la mise en place d’un cadre règlementaire pour instaurer un « écosystème de confiance ». Elle propose la mise en place d’évaluations de la « conformité des applications d’IA à haut risque » et un label non obligatoire pour les autres applications.
Les principes et le fonctionnement de l’intelligence artificielle amènent en effet de nombreuses réflexions. Basée sur l’apprentissage par la collecte d’un grand nombre de data, la technologie pose la question de l’utilisation des données à caractère personnel, déjà réglementée par la RGPD. Autre point critique : la discrimination qui peut résulter des calculs algorithmiques, basés sur les données existantes. Amazon a ainsi dû désactiver en octobre 2018 un outil dédié au recrutement, qui discriminait la candidature des femmes. Enfin, la responsabilité des algorithmes sur les prises de décision et la place du contrôle humain gardent des contours flous.
Du côté des professionnels, les réactions divergent. Plusieurs y voient l’occasion de se positionner comme acteur de confiance. La stratégie a été ainsi saluée par Natasha Crampton, responsable des questions éthiques au sein de l’IA chez Microsoft, à l’occasion du Data Science and Law Forum. Dans une tribune au Financial Time, Sundar Pichai, Directeur de Google, appelait à une régulation de la technologie et proposait son aide aux autorités. Laurent Laporte, PDG de la société Braincube, estime quant à lui que l'IA deviendra légitime quand elle sera certifiée.
D’autres manifestent des inquiétudes sur les effets d’une règlementation trop forte sur la compétitivité de l’Union européenne. Sur le site du Think Thank Institut Sapiens, Emmanuel R. Goffi, Directeur du Centre de recherche et expertise en éthique et intelligence artificielle à l’ILERI, parle de « suicide moral ». Tout en saluant « l’ambition et la complétude des propositions de la Commission », Tech In France, association représentant les éditeurs de Logiciels et Solutions Internet, se montre vigilante sur les effets de la future régulation sur l’innovation et sur l’émergence de « contraintes disproportionnées par rapport à leurs compétiteurs internationaux ». Son directeur Loic Rivière, explique aux Echos redouter « un nouvel édifice réglementaire aussi lourd que le RGPD ». Enfin, dans une tribune à Usine Digitale, Romain Lerallut, directeur du Criteo AI Lab, met en garde contre une « sur-réglementation » : « Nous pouvons appeler l'IA le nouveau moteur de la croissance européenne. Mais nous devons prendre les bonnes mesures dès maintenant ». Le spécialiste reprend à cette occasion les principes définis par l’European Tech Alliance, afin de guider « l'approche de l'UE en matière de technologies de l'IA dans les années à venir ».
Emmanuel Bloch, Directeur de l’information stratégique de Thales, adopte quant à lui un point de vue différent, prenant en compte les spécificités techniques de chaque domaine : « ne serait-il pas utile que chaque grand secteur d’activité s’engage à réfléchir à l’impact de l’IA sur ses propres principes éthiques ? », suggère-t-il dans une tribune au site spécialisé Harvard Business review.
Si cette démarche fait de l’Union européenne une pionnière sur les questions d’intelligence artificielle et d’éthique, le débat émerge également outre Atlantique. Aux Etats-Unis, le Pentagone vient en effet d’adopter une série de principes éthiques pour garantir une « utilisation responsable » de l’intelligence artificielle par l’Armée américaine.
Observatoire Intelligence artificielle, le 18 Mars 2020
L'application mobile
Ne perdez pas le fil !
Les observatoires délivrent des publications synthétiques permettant de suivre et de décrypter les grandes mutations en cours avec une vision globale et transversale. Citoyens, étudiants, dirigeants, collaborateurs, territoires : l'objectif est de permettre à chacun de prendre position et de réagir à son échelle en partageant un socle commun d'informations.