• 9 déc 2025
  • International
  • Communiqué de presse

Monde. Un kit d’Amnistie pour exiger des comptes sur les algorithmes et les abus liés à l’IA

Face à l’utilisation généralisée de l’intelligence artificielle (IA) et de systèmes de décision automatisée qui ont un impact sur notre vie quotidienne, il est crucial que les défenseur·e·s des droits, les militant·e·s et les populations concernées soient équipés pour faire la lumière sur les graves répercussions de ces systèmes sur nos droits fondamentaux, a déclaré Amnistie internationale avant le lancement de son kit pour une gestion responsable des algorithmes

Ce kit s’appuie sur des enquêtes, des campagnes, et des actions de plaidoyer et en direction des médias qu’Amnistie internationale a menées au Danemark, en Suède, en Serbie, en France, en Inde, au Royaume-Uni, dans le Territoire palestinien occupé (TPO), aux États-Unis et aux Pays-Bas. Il fournit un « mode d’emploi » pour les enquêtes, la mise au jour et l’établissement des responsabilités relatives aux préjudices découlant de systèmes algorithmiques, qui deviennent de plus en plus intégrés à notre quotidien, en particulier dans le secteur public, par exemple les domaines de la sécurité sociale, du maintien de l’ordre, de la santé et de l’éducation. 

Quel que soit le lieu dans lequel ces technologies sont déployées, ce qui résulte généralement de leur introduction n’est pas une « efficacité » accrue ou l’« amélioration » des sociétés - ainsi que de nombreux responsables gouvernementaux et grandes entreprises l’affirment - mais plutôt des partis pris, de l’exclusion et des violations des droits humains. 

« Le kit est conçu pour quiconque souhaite examiner ou remettre en question l’utilisation de systèmes fondés sur les algorithmes et l’intelligence artificielle dans le secteur public, notamment les organisations de la société civile, les journalistes, les personnes concernées ou les organisations communautaires. Son but est d’être adaptable et polyvalent dans divers cadres et contextes. 

« Bâtir notre pouvoir collectif en matière d’enquête et d’établissement des responsabilités en relation avec des systèmes d’IA préjudiciables est essentiel à la remise en question des pratiques abusives de certains États et entreprises, et à notre capacité à faire face à la situation actuelle, marquée par l’explosion des investissements dans l’IA. Ces systèmes ont le pouvoir de permettre une surveillance de masse, de fragiliser notre droit à la protection sociale, de restreindre notre droit de manifester pacifiquement, et de perpétuer l’exclusion, les discriminations et les préjugés à travers la société », a déclaré Damini Satija, directrice de programme à Amnesty Tech. 

Le kit introduit une approche à plusieurs niveaux s’appuyant sur les enseignements tirés d’enquêtes effectuées par Amnistie internationale dans ce domaine ces trois dernières années, ainsi que de collaborations avec des partenaires clés. Cette approche fournit non seulement des outils et des modèles pratiques permettant d’effectuer des recherches sur ces systèmes opaques et les violations des droits humains qui en résultent, mais elle propose aussi des tactiques exhaustives pour les personnes œuvrant à mettre fin à ces systèmes abusifs en essayant d’obtenir des changements et des comptes, par le biais de campagnes, d’une communication stratégique, d’un travail de plaidoyer ou d’actions en justice stratégiques. 

L’un des nombreux cas d’étude dont s’inspire le kit est l’enquête réalisée par Amnistie internationale sur le système danois de sécurité sociale, qui a montré que le système assisté par IA employé par l'autorité danoise chargée de la protection sociale, Udbetaling Danmark (UDK), alimente la surveillance de masse et risque d’exercer une discrimination à l’égard des personnes en situation de handicap, à faible revenu, migrantes ou réfugiées, ainsi que des groupes racisés marginalisés, par son recours à des outils fondés sur l’IA pour désigner des personnes qui seront la cible d’enquêtes sur de possibles fraudes aux prestations sociales. 

Cette enquête n’aurait pas été possible sans la collaboration des populations touchées, de journalistes et d’organisations de la société civile, et dans cet esprit, le kit s’appuie sur une collaboration étroite entre différentes disciplines. Le kit positionne le droit relatif aux droits humains comme une composante précieuse du travail de responsabilisation en matière d’algorithme, en particulier car il est absent des domaines dédiés à l’éthique et à la responsabilité, ainsi que des méthodes de vérification, en ce qui concerne l’IA. 

La méthode d’Amnistie internationale met essentiellement l’accent sur le travail collaboratif, tout en tirant parti de l’influence collective d’une démarche employant diverses approches. Les communautés concernées et leur capacité à faire respecter l'obligation de rendre des comptes restent au cœur de ce processus. 

« Cette question se pose avec encore plus d’acuité actuellement, compte tenu de l’explosion des déclarations et des expérimentations débridées autour des prétendus avantages de l’utilisation de l’IA dans la prestation de services publics. Certains acteurs étatiques soutiennent des investissements énormes dans le développement et les infrastructures relatifs à l’IA, et donnent à des entreprises toute latitude pour poursuivre des intérêts lucratifs, quels que soient les impacts sur les droits humains et sur le long terme », a déclaré Damini Satija. 

« Avec ce kit, nous souhaitons démocratiser le savoir et habiliter les organisations de la société civile, les enquêteurs, les journalistes, et les personnes concernées à mettre en lumière ces systèmes et les industries qui les produisent, à exiger des comptes et à mettre fin aux abus permis par ces technologies. » 

Complément d’information 

Amnistie internationale a mené des recherches et un travail de plaidoyer sur l’automatisation et la numérisation dans le secteur public, ainsi que sur les risques relatifs aux droits humains qui y sont associés et les impacts des décisions fondées sur des algorithmes au Danemark, enFrance, aux Pays-Bas, en Inde et en Serbie. 

La campagne Ban the Scan d’Amnistie internationale demande l’interdiction des technologies de reconnaissance faciale à des fins de surveillance de masse. Cette campagne s’appuie sur des recherches et un travail de plaidoyer réalisés dans le Territoire palestinien occupé, à New York et à Hyderabad.