Comment les propositions de l’UE visant à « simplifier » les lois relatives aux technologies feront régresser nos droits afin de nourrir l’IA
L’an dernier, la Commission européenne a lancé une initiative visant à simplifier des lois existantes de l’Union européenne (UE) relatives à l’intelligence artificielle (IA) et à la protection des données, affirmant que cela allait « stimuler la compétitivité » et permettre l’« allègement des formalités administratives ». En novembre 2025, elle a dévoilé des propositions visant à modifier en profondeur des lois majeures telles que le règlement sur l’IA et le Règlement général sur la protection des données (RGPD).
Les règles qui nous protègent en ligne et hors ligne sont en jeu. De grandes entreprises se démènent pour donner une mauvaise image de la réglementation, mais ces textes empêchent que des États et des gouvernements ne piétinent nos droits. Ils protègent notre environnement, nos droits au travail, nos droits en ligne, et bien plus encore.
Soutenu par de puissantes entreprises, le train de mesures dit « omnibus numérique » de la Commission menace d’affaiblir les règles numériques de l’UE qui étaient autrefois considérées comme des références mondiales pour le respect de la vie privée et l’IA. Cela joue sur une fausse dichotomie entre réglementation et innovation, défendue par les géants de la haute technologie qui souhaitent un environnement dénué de règles, qui accorde la priorité aux profits à tout prix. La véritable innovation consiste à trouver des moyens de garantir que les avantages des nouvelles technologies soient partagés par la société dans son ensemble, et ne servent pas uniquement les intérêts des oligarques de la haute technologie.
Les propositions présentées sous couvert de « simplification » représentent un recul sans précédent des droits en ligne qui nous protègent, au niveau de l’UE, de la surveillance des entreprises et de l’État, de la discrimination appliquée par les systèmes d’IA, entre autres problématiques.
Qui profite de la déréglementation/simplification en matière d’IA et qui risque d’en subir les conséquences les plus lourdes ?
Le processus de « simplification » est un processus de déréglementation susceptible de bénéficier aux intérêts des entreprises. Depuis des années, les géants technologiques luttent contre les tentatives ayant pour but de les réglementer, en présentant les règles de gouvernance de contenu comme de la censure et, avec le boom de l’IA, en faisant pression pour un accès accru à toutes nos données afin d’alimenter leurs modèles économiques basés sur la surveillance. Les changements proposés aux lois de l’UE surviennent à un moment où les entreprises de la haute technologie renforcent la présence de leurs lobbyistes dans les institutions de l’UE à Bruxelles, comme Amazon, qui a par exemple dépensé à elle seule 7 millions d’euros en lobbying en un an.
Les pressions s’intensifient dans différents domaines de la réglementation, donnant lieu au recul des protections environnementales, à l’affaiblissement de la gouvernance d’entreprise et à l’érosion des droits numériques. Tout cela constitue un effort coordonné visant à affaiblir la responsabilité des entreprises.
La suppression de ces protections nous menace toutes et tous.
Quels changements l’« omnibus numérique » propose-t-il ?
Jusqu’à présent, la Commission a dévoilé le « paquet numérique », composé de l’omnibus numérique et de l’omnibus numérique sur la réglementation de l’IA. Ils touchent à de nombreuses lois, en particulier le RGPD et la réglementation sur l’IA.
RGPD
Le RGPD est une loi de l’UE qui protège les données personnelles en régissant la manière dont les organisations les recueillent, les utilisent et les sécurisent. Cependant, les réformes du RGPD proposées par la Commission incluent la redéfinition de ce qui constitue des données à caractère personnel. La société civile a indiqué que cela affaiblira les protections prévues par la loi et permettra potentiellement aux géants de la haute technologie de recueillir davantage de données personnelles pour la formation et le fonctionnement des systèmes d’IA. Les entreprises sont en outre tenues de supprimer ces données des systèmes d’IA, mais uniquement si cela ne nécessite pas d’« efforts disproportionnés », un terme qui n’est pas clairement défini et qui est susceptible d’être utilisé de manière abusive. Ces clauses spéciales concernant l’IA, comme l’ont signalé d’autres groupes de la société civile, pourraient compromettre les objectifs centraux du RGPD – protéger les personnes contre les torts causés par la collecte de masse et l’analyse de leurs données personnelles.
Les réformes limitent par ailleurs la capacité des personnes à accéder à leurs propres données. Il s’agit d’un droit fondamental qui permet aux personnes de savoir quelles données les concernant sont conservées et comment elles sont utilisées. Les modifications proposées permettraient aux responsables du traitement de refuser des requêtes s’ils estiment qu’elles sont destinées à des « fins autres que la protection de leurs données ».
Ensemble, ces changements créeraient des lacunes dans la loi phare de l’UE sur la protection des données, faciliteraient la collecte et la manipulation de nos données par les entreprises et les États, et rendraient plus difficile la tâche pour nous de savoir ce qui en est fait et a fortiori de l’empêcher.
Réglementation sur l’intelligence artificielle (AI)
La réglementation sur l’IA, qui n’est pas encore pleinement entrée en vigueur, est l’une des tentatives les plus ambitieuses au monde de protéger les personnes contre les préjudices causés par les systèmes d’IA. Or, les changements proposés dans le train de mesures omnibus numérique sur l’IA menacent de la fragiliser, en affaiblissant et en retardant la mise en œuvre des règles, en particulier pour les systèmes à haut risque qui présentent le plus de dangers pour la santé, la sécurité ou les droits fondamentaux des citoyen·ne·s de l’UE.
Même en vertu de la réglementation actuelle sur l’IA, les dispositions en matière de transparence sont faibles. Par exemple, un fournisseur (c’est-à-dire une entreprise) est autorisé à déterminer si son propre système doit être considéré ou non comme présentant un risque élevé, et à simplement publier cette évaluation sur une base de données de l’UE. Dans le cadre des modifications proposées, même cette garantie minimale disparaîtrait. Les entreprises de l’IA ne seraient plus tenues de rendre cette évaluation publique, ce qui leur donnerait toute latitude pour décider du degré de risque que leurs systèmes posent. Ce manque de transparence rendra plus difficile toute remise en cause de leurs évaluations.
Ces propositions de modifications retarderaient également la mise en œuvre complète de la réglementation sur l’IA. Cela est particulièrement préoccupant compte tenu de la « clause du grand-père » de la loi sur l’IA, qui signifie que les systèmes à haut risque déployés avant la date limite resteraient dispensés d’un grand nombre des obligations visant à atténuer les risques qu’ils représentent pour les droits humains.
D’autres lois seront-elles concernées ?
D’autres propositions de « simplification » sont en préparation, affaiblissant encore davantage nos droits afin d’accommoder des intérêts commerciaux, notamment un projet visant à modifier des « lignes directrices pour une meilleure réglementation » existantes, qui justifiera le fait d’éviter un processus transparent et participatif pour l’élaboration de politiques.
Le « bilan de qualité numérique », ou évaluation de l’effet des lois numériques existantes sur la compétitivité, inclura une évaluation de l’ensemble des principaux instruments juridiques, notamment le règlement sur les services numériques (DSA) et le règlement sur les marchés numériques (DMA), processus susceptible d’être utilisé dans le but de justifier encore davantage la déréglementation.
Pourquoi ces réglementations sont-elles si importantes pour les droits humains ?
L’IA et les droits humains
Alors que de nouveaux systèmes d’IA sont déployés dans le monde entier, la nécessité d’une réglementation plus stricte est une évidence. Bien trop souvent, ces systèmes s’appuient sur des quantités massives de données privées et publiques qui reflètent les injustices sociétales et conduisent à des résultats biaisés, ce qui entraîne une discrimination supplémentaire à l’égard de certaines des personnes les plus vulnérables de la société.
Amnistie internationale a par exemple constaté que des changements législatifs en Hongrie ont autorisé le recours à la technologie de reconnaissance faciale contre des assemblées pacifiques telles que les marches des fiertés de Budapest et de Pécs. Ailleurs, l’utilisation de systèmes d’IA pour suivre les mouvements de réfugié·e·s et de migrant·e·s représente de graves risques pour les droits humains, notamment le droit de demander l’asile. D’autres formes d’IA, telles que les algorithmes de détection des fraudes utilisés dans le cadre de l’« État-providence numérique », ont un impact disproportionné sur les minorités ethniques, les personnes à faible revenu, les migrant·e·s et les réfugié·e·s dans plusieurs pays européens, notamment au Danemark, en France, en Suède et aux Pays-Bas.
Protection des données et droits humains
Le RGPD est l’un des principaux textes de loi protégeant les personnes contre l’utilisation abusive de leurs données personnelles par les géants technologiques et les États. Même si son application laisse à désirer, cette norme a un rôle essentiel à jouer pour servir de rempart contre l’appétit vorace du modèle économique illégal de la Silicon Valley, basé sur la surveillance. Les lois portant sur la protection des données font partie des outils les plus cruciaux de la lutte contre la collecte massive de nos données, le profilage discriminatoire, le reconditionnement et l’analyse des données personnelles en vue de leur revente par des courtiers en données et les entreprises de publicité en ligne. Les lacunes des lois relatives à la protection des données peuvent en outre faciliter le partage et la vente de données aux autorités étatiques, qui peuvent les utiliser pour établir nos profils, nous surveiller, nous priver de nos droits, tels que des prestations sociales, ou même décider de nous arrêter ou de nous placer en détention.
Et ensuite ?
Les propositions de la Commission ne sont pas un fait accompli. Des négociations qui auront lieu dans les mois à venir décideront de la forme finale que prendront ces propositions. On observe déjà des signes encourageants que le Conseil européen, et le Parlement européen, s’opposent à certaines des dispositions les plus préjudiciables de l’omnibus sur l’IA. Lors d’un vote récent, le Parlement de l’UE a maintenu la condition d’enregistrement pour les systèmes à haut risque, quoique sous une forme affaiblie, ce qui signifie que les problèmes demeurent et que la bataille est loin d’être terminée.
Les droits humains et le bilan de qualité numérique
Outre le paquet numérique, le prochain bilan de qualité numérique suscite également de vives inquiétudes. Sa portée d’ensemble est inconnue et ouverte, mais le règlement sur les services numériques (DSA) et le règlement sur les marchés numériques (DMA) ont déjà été mentionnés comme cibles potentielles du processus de simplification, et cette possibilité suscite à elle seule de graves préoccupations.
Le DSA est susceptible d’exercer un certain degré de contrôle sur les aspects dangereux du modèle économique des géants technologiques, notamment l’amplification algorithmique. Des recherches menées par Amnistie internationale établissent un lien entre les algorithmes des plateformes et le nettoyage ethnique contre les musulman·e·s rohingyas au Myanmar, ainsi que les graves violations des droits humains commises contre la population tigréenne en Éthiopie. Dans les deux cas, Meta s’est abstenu de modérer et, dans certains cas, a activement amplifié des contenus préjudiciables et discriminatoires sur Facebook.
Affaiblir le DSA et le DMA exposerait davantage la population aux préjudices causés par les monopoles et aux effets des pratiques anticoncurrentielles des géants technologiques. Des recherches effectuées par Amnistie internationale ont montré que leur pouvoir, qui échappe en grande partie au moindre contrôle, à travers divers secteurs numériques, menace gravement le droit à la vie privée, le droit à la non-discrimination, la liberté d’opinion et l’accès à l’information, et leur permet d’influencer des États afin de les inciter à bloquer des textes de loi protégeant ces droits.
Bien qu’incomplètes, les réglementations relatives aux droits numériques dans l’UE offrent une protection cruciale contre ces types de préjudices. Plutôt que les démanteler, il faut les renforcer et les appliquer. En Europe et partout ailleurs dans le monde, les personnes dont les droits sont touchés devraient s’opposer aux propositions de la Commission et dénoncer la « simplification » pour ce qu’elle représente réellement : une privation de nos droits dans le but de servir les intérêts des géants technologiques et de l’IA.