« Réussir à créer une intelligence artificielle serait le plus grand événement dans l’histoire de l’homme. Mais ce pourrait aussi être le dernier ».
Stephen Hawking, physicien, théoricien et cosmologiste britannique
Le Conseil de l’Europe définit l’intelligence artificielle (IA) de la manière suivante, elle est « en réalité une discipline jeune d’une soixante d’années, qui réunit des sciences, théories et techniques (notamment logique mathématique, statistiques, probabilités, neurobiologie computationnelle et informatique) et dont le but est de parvenir à faire imiter par une machine les capacités cognitives d’un être humain. ». En effet, son origine remonte aux années 1950, Alan Turing et John Von Neumann sont les pères fondateurs de ce que l’on appelle aujourd’hui l’intelligence artificielle. À ce jour, l’IA fait partie intégrante de notre quotidien, elle est présente au sein des réseaux sociaux, des moteurs de recherche, des applications de navigation, des sites marchands et de nos boîtes mails. Matériellement, elle prend place au sein des voitures autonomes, des smartphones, ou encore prend la forme d’Alexa, outil d’Amazon.
Selon Gérard Haas, avocat en droit du numérique et de la propriété intellectuelle à Paris, « à l’heure actuelle, l’Intelligence artificielle n’a pas de véritable cadre juridique ». Selon lui, l’enjeu est d’identifier ce qu’est l’IA et les domaines dans lesquels elle intervient pour l’encadrer juridiquement, notamment sur le terrain de la propriété des données. Il est nécessaire de permettre à l’utilisateur d’avoir le contrôle sur ce qu’il partage.
En effet, les usages vont au-delà des petites pratiques du quotidien et la mise en œuvre de l’intelligence artificielle nous projette dans un avenir imprévisible, non pas du fait de l’homme mais de la machine. Il y a donc un réel enjeu à mesurer la portée et les limites et ce, alors même que le potentiel de l’IA est difficilement sondable.
- Les enjeux éthiques de l’utilisation de l’intelligence artificielle
L’utilisation de l’IA au quotidien soulève de nombreuses questions éthiques étroitement liées au droit car il est le garant de la protection des droits fondamentaux et qu’il est le seul à pouvoir limiter ou interdire certaines pratiques. Aujourd’hui, les risques sont nombreux : injustice algorithmique, systèmes opaques, programmes racistes et sexistes, discriminations, impacts sur le travail, désinformation, atteintes à la vie privée, atteintes à la sécurité, surveillance des utilisateurs. Ces risques sont présents dans de nombreux domaines (environnement, santé, énergie, justice, droit, police, transport, économie et bien d’autres) et touchent, de fait, une grande partie des utilisateurs.
- En droit international
Selon l’UNESCO, l’IA transforme nos sociétés et remet en question ce que signifie être humain, elle modifie nos rapports au numérique et à la société. À partir de ce constat et de nombreuses recherches, les États membres de l’UNESCO ont décidé d’adopter un accord sur l’éthique de l’intelligence artificielle, en novembre 2021. Il s’agit du tout premier instrument normatif mondial sur le sujet. Cette recommandation a pour but de promouvoir les droits humains et la dignité humaine, et constitue une boussole éthique et un socle normatif mondial permettant de faire respecter les droits et libertés dans le monde numérique. Il s’agit concrètement, pour les États membres, d’évaluer les impacts éthiques afin de s’assurer que la collecte et le traitement des données soient conformes au droit au respect à la vie privée et cela de manière transparente et non-discriminatoire, ainsi que d’évaluer les impacts environnementaux directs et indirects, et s’assurer d’être en accord avec les objectifs de développement durable.
- En droit européen
Le Conseil de l’Europe a adopté, le 8 décembre 2018, une Charte éthique de l’utilisation de l’intelligence artificielle dans les systèmes judiciaires. Celle-ci impose notamment que l’IA reste au service de l’intérêt général, en respectant les droits fondamentaux, en assurant la qualité et la sécurité dans le traitement des données personnelles, la transparence, l’égalité et la non-discrimination, la neutralité et l’intégrité intellectuelle. L’utilisateur doit garder une certaine maîtrise et demeurer un acteur éclairé et maître de ses choix.
La prise en compte des enjeux éthiques est récente car le droit met du temps à saisir les problèmes liés au numérique et à légiférer dessus. Il a fallu protéger les personnes vulnérables et réaffirmer que les principes de l’État de droit s’appliquent également à l’utilisation de l’IA. À ce jour, on se trouve davantage dans une démarche de reconnaissance d’application des droits de l’homme au numérique que sur une véritable réglementation de l’intelligence artificielle. Les enjeux éthiques n’ont pas de frontières et doivent être envisagés par l’ensemble de la communauté internationale.
- Les enjeux juridiques de l’utilisation de l’intelligence artificielle
L’intelligence artificielle pose également des défis juridiques, au même titre que les nouvelles technologies, telles que la donnée, les algorithmes ou encore la blockchain. Il est délicat de poser des barrières juridiques sur un sujet encore méconnu du public, mais également des juristes. Il est important pour ces derniers de la connaître, puisqu’aujourd’hui, l’intelligence artificielle fait partie du monde de la justice et a vocation à l’intégrer encore plus activement dans les années à venir. Il est important que le sujet de l’intelligence artificielle soit saisi par le droit, afin de responsabiliser les acteurs mais aussi afin d‘éviter des dérives, notamment discriminatoires. Un vide juridique ne peut être permis sur un sujet aussi délicat que l’intelligence artificielle.
- En droit communautaire
Pour répondre à cette problématique, la Commission Européenne a rédigé une proposition de règlement le 21 avril 2021, l’Artificial Intelligence Act (AI Act). Ce projet intervient dans un contexte de forte mobilisation intergouvernementale.
La Commission Européenne, pour aboutir à ce projet de règlement, s’est basée sur l’article 114 du Traité de Fonctionnement de l’Union Européenne (TFUE), qui explique que les décisions visant l’harmonisation des législations des États membres se font dans le cadre de la procédure législative ordinaire.
En proposant un texte juridiquement contraignant sur l’intelligence artificielle, l’Union Européenne se positionne en tant que cheffe de file mondiale concernant la régulation de celle-ci. Il est possible de dire qu’en la matière, en proposant un règlement, l’Union Européenne cherche une réelle uniformisation du droit sur le sujet plutôt qu’une simple harmonisation.
Le texte est un aboutissement de la politique européenne d’appréhension du développement des technologies numériques dans les activités humaines, ses conséquences sociales, sociétales, environnementales, économiques et juridiques. Le but de cette politique est de rassurer les citoyens à travers la transparence sur l’usage de l’intelligence artificielle.
L’article 3(1) de l’AI Act définit le système d’intelligence artificielle comme un « logiciel développé à l’aide d’une ou plusieurs des techniques et approches […] et capable, pour un ensemble donné d’objectifs définis par l’homme, de générer des résultats tels que du contenu, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels ils interagissent ».
En proposant une définition large, la Commission appréhende tous les systèmes automatisés d’aide à la décision et de prise de décision, et ce quelle que soit la forme du logiciel (véhicule autonome, reconnaissance photo, tri de documents…). Le texte exclut aussi certains usages de l’objet du règlement, tel que l’usage militaire.
Ce projet de règlement organise le régime de responsabilité de l’intelligence artificielle en se basant sur le principe du risque, c’est-à-dire qu’il envisage différents degrés de responsabilité en fonction du risque de l’utilisation d’un système utilisant l’IA. Les systèmes présentant un risque inacceptable seront interdits, tandis que ceux à haut risque seront soumis à une lourde procédure de mise en conformité et enfin, pour les systèmes d’intelligence artificielle à faible risque, une obligation de transparence sera requise.
Cela permet de limiter les risques pour la sécurité, autrement dit le respect des droits fondamentaux, tout en permettant l’innovation, c’est-à-dire la garantie d’une sécurité juridique pour les entreprises.
- En droit national
Au niveau national, l’intelligence artificielle est notamment utilisée dans le cadre des services publics. Le Conseil d’État précise dans un communiqué de presse publié le 30 août 2022 que l’intelligence artificielle a vocation à intégrer le service public, même si cela est fait aujourd’hui de manière expérimentale.
L’intérêt de l’usage de l’intelligence artificielle est le perfectionnement de la « continuité du service public ou encore automatiser certaines tâches dans le but de réduire les délais d’examen des demandes faites par les usagers ». Le Conseil d’État souhaite mettre en œuvre « une politique de déploiement de l’intelligence artificielle résolument volontariste, au service de l’intérêt général et de la performance publique. ».
Le service public de la justice est aussi concerné par l’élargissement du champ d’utilisation de l’intelligence artificielle. Il est cependant important que le juge prenne la décision finale, pour que le jugement reste humain. Dans le cas d’une prédiction de décision, un algorithme analyse des exemples jurisprudentiels et donne une décision automatique, que le juge est libre de suivre ou non. Selon Bruno Dondero, juriste et professeur de droit des affaires « c’est tenter de prédire avec le moins d’incertitude possible ce que sera la réponse de la juridiction X quand elle est confrontée au cas Y ».
Certains pays vont plus loin dans l’utilisation de la justice prédictive. Par exemple, un tribunal virtuel dans l’Ontario, au Canada, tranche les conflits entre salarié et employeur mais aussi entre voisins. Il est aussi possible de penser au cas de l’Estonie, qui prévoit le déploiement d’une intelligence artificielle établissant la culpabilité ou non d’une personne dans les litiges dont le montant est inférieur à 7.000 euros. C’est une première mondiale.
La doctrine est partagée sur le sujet de l’insertion progressive de l’intelligence artificielle dans le droit français. D’une part, certains auteurs tels que Fabrizio Papa Techera, président du directoire de Lexbase et ancien avocat, considèrent qu’une transposition d’une justice algorithmique en France pourrait mener à « un appauvrissement considérable de la culture juridique française ». D’autre part, certains estiment que les juristes doivent s’adapter face à l’arrivée de l’intelligence artificielle dans le système judiciaire. C’est le cas de Gregory Lewkowicz, professeur à l’Université de Bruxelles et spécialiste en intelligence artificielle qui considère que la matière juridique « est par essence évolutive, c’est au cœur de la pratique que d’ajuster, continuellement, la règle aux réalités concrètes de l’époque ». Selon lui, le seul risque serait « d’être otages d’opérateurs privés et d’algorithmes opaques ».
Pour conclure, l’IA est un domaine ayant des conséquences sur toutes les sociétés. Il est donc nécessaire de l’encadrer juridiquement afin de répondre aux enjeux éthiques soulevés par son utilisation. Un travail de reconnaissance et de traitement de ces enjeux est amorcé, reste cependant à définir des bases juridiques concrètes reconnues par tous les États de droit.
D’autres enjeux pertinents peuvent être évoqués, notamment les enjeux environnementaux liés à l’utilisation massive de systèmes informatiques. En effet, en 2020, les technologies du numérique représentent entre 1,8 et 6,3% des émissions de dioxyde de carbone mondiales.
Pour aller plus loin : https://www.dalloz-actualite.fr/chronique/droit-et-intelligence-artificielle#.YzweCS0itQI
Marion ZIANI et Virgile DARROUZET