Les Jeux Olympiques et Paralympiques (JOP) désignent à la fois les compétitions des Jeux Olympiques, auxquelles participent des athlètes valides, et les Jeux Paralympiques, réservés aux athlètes en situation de handicap. Les JOP de 2024, qui se sont déroulés avec succès à Paris, ont été marqués par une intensification des mesures de surveillance, notamment via des technologies innovantes telles que la vidéosurveillance intelligente assistée par intelligence artificielle (IA). Ce dispositif, visant à assurer la sécurité des événements et des spectateurs, a suscité un débat sur son impact sur les libertés individuelles, notamment en matière de protection des données personnelles et du respect de la vie privée.
Cette veille examine les suites juridiques de cette expérimentation à grande échelle, en s’intéressant à l’état du droit national et international qui régit l’utilisation de ces technologies, ainsi qu’à leur compatibilité avec trois notions essentielles : les droits fondamentaux, les libertés fondamentales et les libertés individuelles.
- Droits fondamentaux : Ce sont des droits universels, tels que le respect de la vie privée (article 8 de la Convention de sauvegarde des droits de l’Homme et des libertés fondamentales, dite Convention EDH) ou la protection des données personnelles (article 8 de la Charte des droits fondamentaux de l’UE). Ces technologies suscitent des interrogations quant à leur respect face à la collecte massive de données.
- Libertés fondamentales : Garanties par la Constitution (par exemple, la liberté d’aller et venir et la liberté de réunion), elles protègent les droits collectifs. La surveillance intelligente soulève des questions sur les limites à imposer pour éviter de restreindre ces libertés.
- Libertés individuelles : Elles protègent chaque personne contre les abus, tels que l’intrusion dans la vie privée (article 9 du code civil). Ces technologies doivent éviter toute ingérence excessive ou injustifiée.
1. Retour sur le cadre législatif appliqué lors des JOP 2024
Les JOP de Paris 2024 ont marqué une étape importante dans l’utilisation des technologies de vidéosurveillance intelligentes. La loi n° 2023-202, promulguée en avril 2023, a permis l’expérimentation temporaire de systèmes de vidéosurveillance augmentée par IA jusqu’au 30 juin 2025. L’IA désigne des technologies capables de simuler certaines fonctions cognitives humaines, comme l’analyse et l’interprétation de données. Ces dispositifs ont été utilisés pour analyser, en temps réel, les flux de données vidéo afin de détecter des comportements anormaux, tels que des mouvements de foule suspects ou la présence d’objets abandonnés. L’objectif était de prévenir les incidents et d’assurer la sécurité des lieux accueillant des milliers de spectateurs et d’athlètes.
Cependant, cette loi n’a autorisé l’usage de ces technologies que pour une durée limitée, jusqu’au 30 juin 2025, en imposant des mesures strictes de protection des libertés individuelles, telles que l’interdiction d’utiliser la reconnaissance faciale. Les dispositifs étaient soumis à l’obligation d’information du public, notamment par un affichage clair de leur présence, et devaient respecter le principe de proportionnalité (c’est-à-dire veiller à ce que le traitement des données soit adéquat, nécessaire et non excessif par rapport aux objectifs poursuivis). La Commission nationale de l’informatique et des libertés (CNIL) a joué un rôle crucial dans le contrôle et la régulation de ces technologies, veillant à ce que leur usage ne porte pas atteinte aux droits des citoyens, tels que le respect de la vie privée.
2. Protection des données personnelles et technologies de surveillance intelligente
L’un des principaux défis liés à l’utilisation de ces technologies réside dans la protection des données personnelles, encadrée en France par la loi Informatique et Libertés de 1978 et par le Règlement général sur la protection des données (RGPD) entré en vigueur en 2018. Ce texte, issu du droit de l’Union européenne, vise à harmoniser les règles de protection des données tout en renforçant les droits des citoyens. Les données personnelles incluent toute information permettant d’identifier directement ou indirectement une personne (nom, photo, adresse, adresse IP, etc.), et leur traitement est soumis à des normes strictes.
Lors des JOP 2024, les dispositifs de vidéosurveillance assistés par IA devaient se conformer à ces règles, en limitant la collecte des données au strict nécessaire (principe de minimisation des données) et en garantissant les droits des individus, tels que le droit à l’information, le droit d’accès à leurs données et le droit à l’effacement. Bien que la loi de 2023 ait prévu des garde-fous pour encadrer l’utilisation de ces technologies, des débats ont émergé sur la capacité des autorités à garantir que ces systèmes ne soient pas utilisés à des fins abusives, notamment après les JO.
La CNIL a insisté sur la nécessité de renforcer les mécanismes de transparence et de contrôle, notamment face aux risques de biais algorithmiques et de discrimination inhérents à l’IA. Ce rôle est essentiel pour éviter des situations discriminatoires, comme dans l’affaire survenue aux Pays-Bas, où un algorithme de sécurité sociale avait injustement ciblé des familles dans le cadre de contrôles sur des aides sociales.
3. La jurisprudence et le contrôle judiciaire après les JOP
En matière de vidéosurveillance, la jurisprudence européenne, notamment celle de la Cour européenne des droits de l’Homme (CEDH), a toujours mis en avant la nécessité de respecter le droit à la vie privée, protégé par l’article 8 de la Convention EDH. L’arrêt de la CEDH, Marper contre Royaume-Uni (2008), qui a condamné le Royaume-Uni pour le stockage indéfini de données génétiques, a servi de cadre pour évaluer les pratiques de surveillance déployées durant les JOP.
Après les JOP, la question du maintien ou de l’élargissement des dispositifs de surveillance s’est posée. Certains critiques ont estimé que, bien que ces technologies aient prouvé leur efficacité en matière de sécurité, elles devaient impérativement être soumises à un contrôle judiciaire plus strict pour éviter que leur usage ne devienne permanent et ne porte atteinte aux droits fondamentaux des citoyens. Dans ce contexte, la loi du 19 mai 2023, adoptée pour les Jeux Olympiques et Paralympiques, a autorisé à titre expérimental la vidéosurveillance algorithmique jusqu’au 31 mars 2025, en excluant les technologies de reconnaissance faciale et biométrique pour limiter les risques pour les libertés individuelles.
Par ailleurs, une proposition de loi sur la sûreté dans les transports, déposée en décembre 2023 et adoptée en première lecture au Sénat en février 2024, propose de prolonger cette expérimentation jusqu’en 2027. Elle prévoit notamment l’utilisation de caméras intelligentes et de caméras-piétons par les contrôleurs ferroviaires et les conducteurs de bus, dans un objectif de renforcement de la sécurité dans les transports publics. Ce texte suscite des débats sur l’équilibre entre sécurité et respect des droits fondamentaux, notamment à la lumière des exigences de la CEDH et des préoccupations soulevées par des associations de défense des libertés individuelles.
4. Les enjeux internationaux et les répercussions pour l’avenir
Les JOP 2024 ont également eu des répercussions à l’échelle internationale. La France, en tant que pays hôte, a été scrutée par d’autres nations quant à l’usage des technologies de vidéosurveillance. Au sein de l’Union européenne, plusieurs États ont exprimé leur intérêt pour ces technologies et envisagent l’adoption de systèmes similaires, tout en prenant en compte les préoccupations soulevées par des organisations de défense des droits humains. Des instances telles qu’Amnesty International et Human Rights Watch ont, dès octobre 2019, alerté sur une possible normalisation de la surveillance de masse, notamment avec l’utilisation de l’IA.
Après l’usage de technologies de vidéosurveillance intelligentes lors des JOP de Paris 2024, plusieurs pays ont considéré la mise en place de dispositifs similaires. La France a ouvert la voie en autorisant, pour la première fois en Europe, l’utilisation d’algorithmes de vidéosurveillance en temps réel, ce qui a inspiré des discussions dans d’autres pays européens, tels que le Royaume-Uni, qui avait déjà expérimenté une surveillance étendue lors des Jeux Olympiques de Londres en 2012. Des pays comme la Russie, qui avait déployé des technologies de reconnaissance vocale durant la Coupe du Monde 2018, continuent à intégrer ces innovations dans leurs dispositifs de surveillance. Toutefois, cette tendance suscite des inquiétudes parmi les organisations de défense des droits humains, qui mettent en garde contre les risques de dérives en matière de protection de la vie privée et des libertés individuelles.
À l’échelle internationale, une tension existe entre les avancées technologiques en matière de sécurité et le cadre juridique existant. Bien que le RGPD européen établisse des règles strictes pour la protection des données, d’autres juridictions, comme aux États-Unis ou en Chine, adoptent des approches plus flexibles, ce qui complique l’harmonisation des règles à l’échelle mondiale.
Le cadre juridique européen actuel encadrant l’IA repose sur la proposition de règlement sur l’IA, présentée par la Commission européenne en avril 2021, visant à réguler l’usage de l’IA à haut risque, notamment dans le domaine de la vidéosurveillance. Par ailleurs, la décision d’exécution 2021 de la Commission européenne a permis des expérimentations de technologies de surveillance avancées, sous réserve de respecter strictement les droits humains. Concernant la prolongation de l’expérimentation des technologies de vidéosurveillance en France, la loi d’avril 2023 autorise cette expérimentation jusqu’au 30 juin 2025, notamment pour les JOP de Paris 2024. Cette législation française s’inscrit dans le cadre européen cherchant à concilier innovation technologique et protection des droits fondamentaux, tout en prévoyant des mesures renforcées de contrôle et de régulation.
5. Règlement européen sur l’intelligence artificielle : vers une IA éthique et responsable
Le règlement de l’Union européenne du 13 juin 2024, connu sous le nom d’« IA Act », a été publié au Journal officiel de l’Union européenne le 12 juillet 2024. Ce texte constitue une avancée législative majeure en établissant un cadre juridique unifié pour le développement et l’utilisation des systèmes d’IA au sein de l’Union européenne.
L’objectif principal du législateur européen est d’assurer une IA éthique et responsable, en protégeant les droits fondamentaux tout en favorisant l’innovation. À cette fin, le règlement repose sur une approche fondée sur les risques, classant les systèmes d’IA en quatre catégories : risques inacceptables (interdits), risques élevés (soumis à des exigences strictes), risques limités et risques minimes.
Principales dispositions
• Interdictions : Certaines pratiques, telles que l’utilisation de systèmes de notation sociale ou la manipulation cognitive à grande échelle, sont explicitement interdites.
• Transparence : Les opérateurs doivent garantir une transparence accrue, notamment en informant les utilisateurs lorsqu’ils interagissent avec une IA.
• Encadrement des systèmes à risque élevé : Ces systèmes doivent répondre à des normes strictes en matière de sécurité, de fiabilité et de protection des données.
• Soutien à l’innovation : Le règlement prévoit des dispositifs, tels que des bacs à sable réglementaires, pour encourager une innovation responsable.
Le champ d’application de ce texte est large, englobant tous les acteurs opérant dans l’Union européenne, qu’ils soient établis dans un État membre ou dans un pays tiers. Les sanctions prévues en cas de non-respect des dispositions sont particulièrement dissuasives, pouvant atteindre jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires annuel consolidé des entreprises fautives.
Un déploiement progressif est prévu, avec une application intégrale fixée au 2 août 2026. Ce calendrier vise à laisser aux opérateurs le temps de s’adapter aux nouvelles exigences.
Ce règlement s’inscrit dans un cadre plus large de régulation des technologies, incluant les systèmes de vidéosurveillance intelligente utilisés lors des JOP de Paris 2024. Bien que ces technologies de sécurité soient innovantes, elles devront se conformer aux exigences strictes du cadre européen, notamment pour les systèmes d’IA considérés comme présentant un risque élevé.
Conclusion
Les technologies de vidéosurveillance intelligentes utilisées lors des JOP 2024 à Paris ont marqué un tournant dans l’utilisation de l’IA pour la sécurité publique en France. Si ces dispositifs ont permis de renforcer la sécurité des événements, leur déploiement a soulevé des questions fondamentales concernant les droits des citoyens et la protection des données personnelles. Le cadre juridique français, soutenu par le RGPD et le contrôle de la CNIL, a fourni des garanties importantes, mais l’évolution rapide de ces technologies exige une vigilance accrue pour éviter toute dérive. Les débats qui ont suivi les JOP montrent que l’enjeu de la surveillance dans l’espace public reste un sujet sensible, nécessitant un équilibre constant entre sécurité et libertés individuelles.
Cependant, l’utilisation de ces technologies de vidéosurveillance soulève également des critiques concernant leur efficacité. Un des problèmes majeurs réside dans le décalage entre les algorithmes intégrés aux dispositifs et la réalité sur le terrain. En effet, l’efficacité de l’IA dans ces systèmes se heurte à un délai de traitement des données, rendant difficile la détection en temps réel des incidents. En outre, l’installation de ces technologies a coûté près de 44 millions d’euros, ce qui soulève la question de la rentabilité de tels investissements à court terme. Alors que l’expérimentation est prolongée seulement jusqu’en 2025, on se demande comment le gouvernement pourrait justifier la poursuite de ces dépenses, alors que les résultats pratiques restent encore incertains et que la technologie n’a pas encore fait ses preuves.
Juliette Tanguy – étudiante en Master 1 Droit public
Principales sources utilisées :