La nécessité d’une adaptation législative encadrant les possibilités découlant des évolutions de l’intelligence artificielle
L’Intelligence Artificielle (IA) est un domaine en constante évolution qui suscite un intérêt croissant auprès de la population depuis quelques années. Il y a un certain engouement autour des possibilités offertes par le développement des machines intelligentes. Mais l’attention qu’on lui porte est aujourd’hui différente puisque la société civile prend la mesure des possibilités que peut offrir l’IA, elle s’interroge sur ses utilisations et sur les dangers qu’elle présente. Les citoyens ne sont pas les seuls. La démarche de mise en garde par de nombreux scientifiques, tels Stephen Hawking qui s’alarmait en janvier 2015 dans une lettre ouverte sur l’intelligence artificielle, interpelle. D’autant que ceux-ci incarnent – jusque physiquement – les bienfaits de ces révolutions techniques.
Les États et leurs institutions se saisissent désormais de la question, c’est pourquoi il est important d’identifier les différents risques et de proposer des éléments de réponses afin qu’hommes politiques puissent adapter la législation aux enjeux, qui vont grandir en importance à mesure des évolutions technologiques.
L’émergence de l’IA comme enjeu politique
Les techniques d’IA ne sont pas nouvelles, tout comme l’inquiétude envers elle et les robots. Comme le souligne Ryan Calo1, déjà en 1980, le New York Time titrait « A robot is after your job », un titre qui pourrait aisément se retrouver en une encore aujourd’hui. La nouveauté réside actuellement dans deux caractéristiques de notre époque : la puissance de calcul des ordinateurs contemporains et l’accès à d’immenses bases de données permettant des avancés rapides en matière d’apprentissage profond, une branche particulière de l’IA. Les espoirs véhiculés par ces progrès, en matière médicale notamment, sont immenses et emportent des perspectives de bienfaits considérables pour les prochaines décennies. Mais d’autres utilisations, en matière commerciale par exemple ou en cas d’atteinte aux droits des personnes, laissent envisager des dangers de plus en plus présents. Les hommes politiques ont enfin commencé à se pencher sur l’IA pour y porter une attention particulière.
La Maison-Blanche a ainsi publié en octobre 2016 un rapport intitulé « Preparing for the future of artificial intelligence ». En France, les travaux menés pendant six mois par une mission parlementaire ont résulté sur la publication du rapport de Cédric Villani intitulé « Donner un sens à l’intelligence artificielle : pour une stratégie nationale et européenne ». Au Canada, Justin Trudeau s’est également emparé du sujet et rappelle la place de leader dans son pays dans ce secteur en vantant certaines de ses initiatives telles que la création de l’institut Vector ou le financement important accordé au programme de l’Institut canadien de recherches avancées (ICRA) dédié à stratégie pancanadienne en matière d’intelligence artificielle.
L’immixtion du pouvoir politique dans la sphère de l’intelligence artificielle est liée à la récurrence de problématiques posées par l’IA qui sont déterminantes pour l’avenir des démocraties libérales. Un principe politico-juridique aussi fondateur que l’égalité des citoyens devant la loi est ainsi susceptible d’être bouleversé par le fonctionnement des algorithmes. Ceux-ci fonctionnent sur la base de mégadonnées qui ont vocation à résoudre une opération dont l’issue est ainsi déterminée par des faits préconçus. L’algorithme est en effet capable d’effectuer, sur la base de base de données, des corrélations et de faire des liens qui auraient été imperceptibles pour un être humain.
L’IA et le respect des droits individuels
L’apprentissage des schémas culturels impensés des concepteurs peut ainsi amener un
utilisateur afro-américain de reconnaissance faciale à se voir insulter de « gorille ». L’intrusion dans la pensée humaine constitue ainsi un risque majeur. Aux États-Unis, les magasins Target seraient par exemple capables de prédire la grossesse d’une femme en fonction de ces comportements d’achat avant même que celle-ci ne le sache. Ce type d’absurdités souvent relatées dans la presse n’a rien d’anecdotique. Il révèle au grand jour tout le danger des algorithmes qui procèdent par ciblage des personnes et tend ainsi à nier leurs individualités.
En matière de politique sociale par exemple, la collecte d’informations aux États-Unis sur les bénéficiaires d’aide sociale aboutit à une surveillance toujours plus ciblée des personnes les plus fragiles par les organismes publics. Cette fausse impression de légitimation scientifique des préjugés induit un renforcement du contrôle des populations pauvres, les privant ainsi de la présomption de bon citoyen qui leur serait acquise dans d’autres quartiers, avec d’autres ressources ou d’autres origines. L’enfermement des individus dans des cases est un risque inhérent au développement actuel de nombreux algorithmes qui pourraient se transformer en machine à creuser les inégalités territoriales ou socio-économiques.
Laissez-faire ou contrôler ?
La question de l’intensité du contrôle politique de l’intelligence artificielle est donc centrale. Les machines et systèmes cyberintelligents doivent être respectueux des lois votées par les représentants du peuple. Mais comment s’en assurer ? En matière de sécurité des médicaments par exemple, il y a certains standards que les entreprises ou les laboratoires pharmaceutiques doivent respecter. La diffusion de molécules nécessite des tests lourds et rigoureux avant la mise sur le marché. Comment établir la même chose pour les algorithmes ? Jusqu’à présent, ils bénéficient de la liberté qui s’attache à celle de l’expression des idées et des concepts. De facto, une politique de laissez-faire, laissez-passer s’est mise en place afin de favoriser l’innovation. Mais à la lumière des scandales tels que celui d’Equifax ou de Cambridge Analytica, le danger posé par ces véritables « boîtes noires » que sont les algorithmes pourrait bien avoir été sous-estimé.
Ce sont des questions autant techniques que réglementaires auxquelles les citoyens doivent être sensibilisés. L’exemple le plus débattu est actuellement celui de la voiture autonome. Les décès accidentels récents causés par des voitures autonomes ont mis en lumière toutes les craintes nourries par le public face à l’IA. Une voiture conduite par un système cyberintelligent devrait être plus sûre que celle conduite par un humain. Mais comment définir cette notion, et par rapport à quels repères ? Quand bien même des normes sont établies, comment le vérifier ? Comment réglementer les entreprises qui, au nom de la défense de leurs libertés commerciales, sont réticentes à dévoiler les codes de programmation pour permettre ces vérifications. Jusqu’à quel point l’actuel laissez-faire est-il viable ? Certains appellent donc d’ores et déjà à la création d’une agence de régulation des algorithmes.
La question de la responsabilité humaine dans l’utilisation de l’intelligence artificielle se révèle ainsi comme le véritable enjeu. La notion même d’autonomie (du grec auto-soi-même et nomos- la loi) pour une machine n’a aucun sens en droit de la responsabilité qui est construit sur l’identification de la personne-responsable. Sa disparition échapperait à la raison juridique. Comme l’utilisation des armes militaires autonomes heurterait les consciences si elle avait pour finalité l’acte de tuer : que le choix de la cible soit fait ou non par un humain, il y aura nécessairement à clarifier une chaine de responsabilité humaine. Les leçons de l’histoire appellent à ne jamais déresponsabiliser ni banaliser la mort au risque de se déshumaniser.
La question de la sécurité se retrouve aussi du côté des citoyens et consommateurs
Les débats doivent se retrouver également du côté de la vie privée. L’époque actuelle est à la méfiance et au contrôle des renseignements personnels qui peuvent être détenus par les industriels et les institutions. Or la disponibilité des données personnelles est intimement liée à l’IA. En effet peuvent découler des données que l’on pourrait penser sans importance et qui sont mise à disponibilité du public des informations très précises sur la vie des individus, une fois analysées. Plusieurs évolutions réglementaires s’imposent alors aux vues des accélérations qui sont faites dans le domaine de l’extraction des données. Elles doivent concerner aussi bien leurs utilisations, que leurs partages entre les entreprises, qui sont souvent réticentes à dévoiler celles qu’elles auront recueillies.
L’interventionnisme et l’IA
Un des points importants relatifs aux capacités de l’AI concerne aussi le déplacement du travail et sa taxation. La peur est de voir l’IA détruire des emplois. Il s’agit là d’une antienne inhérente aux mutations économiques depuis les premières révolutions industrielles. Reste qu’il se pourrait que le changement soit plus rapide et étendu à plus de secteurs. Le débat se concentre alors sur l’imposition de celui-ci pour compenser les externalités négatives ainsi générées par l’IA. Rien n’est encore privilégié. Alors que certains considèrent que les robots doivent payer des taxes à la manière des êtres humains, d’autres pensent que c’est une erreur et que cela serait assimilable à une taxe sur le développement et le progrès.
Pour aller plus loin encore, l’IA pourrait être mise au service des intérêts publics. La fondation caritative « AI for good » promeut l’utilisation de l’IA pour améliorer les outils scientifiques de lutte contre le réchauffement climatique, faciliter l’alphabétisation, lutter contre les trafics illégaux, interrompre la circulation de fausses nouvelles, améliorer la transparence des marchés de l’emploi ou de l’immobilier. Les choix d’investissements privés et publics constituent une forme d’encadrement du marché qui oriente l’innovation de façon déterminante et pérennisent les bonnes pratiques en matière de respect de la vie privée ou de cybersécurité.
L’implication du citoyen
Dans ce contexte, il faut nécessairement rendre hommage au travail d’un groupe de chercheurs pluridisciplinaires qui œuvre à l’élaboration de la Déclaration de Montréal pour une intelligence artificielle responsable. Composé de philosophes éthiciens, d’ingénieurs informatiques, de juristes, de communicants, d’urbanistes, ce projet vise à aller recueillir la parole des citoyens dans des débats publics organisés régulièrement dans la ville. Abordant tous les thèmes essentiels à la réflexion sur le sujet tels que le respect par l’IA du pouvoir démocratique, la préservation de la vie privée, la protection du principe de responsabilité juridique, la lutte pour le progrès environnemental, cette Déclaration est un modèle d’initiative locale qui parle au monde. « On vit dans une époque formidable » déclare Vincent Gautrais, professeur de droit à l’Université de Montréal et membre du comité scientifique en charge de la rédaction de cette déclaration, au sujet de ces défis nouveaux, « le droit se fait tancer de toute part car il doit réussir la jonction entre une réalité vivante et nos principes fondamentaux ; il faut faire des choix entre d’un côté d’un droit fidèle à la réalité et une volonté de prescrire ». Interrogé sur son état d’esprit face au futur de la société, il nous lance « j’aime à reprendre cette phrase du philosophe français Bernard Stiegler : je ne suis ni optimiste, ni pessimiste, je suis revendicatif ! ». Prométhée a volé aux dieux le feu sacré … il a bien fait.
Florimond Épée et Robin Tible
1 Ryan Calo, « Artificial Intelligency policy : A primer and a Roadmap ».
Blogue réalisé grâce à la Chaire Lexum.
Ce contenu a été mis à jour le 24 juillet 2018 à 13 h 36 min.