Monde/Royaume-Uni. Le sommet sur les risques associés à l’intelligence artificielle ne doit pas ignorer les graves préjudices pour les droits causés par les technologies de détection des fraudes
À l’approche du sommet sur les risques associés à l’intelligence artificielle organisé par le Royaume-Uni, qui s’ouvrira le mercredi 1er novembre 2023, Damini Satija, responsable du Laboratoire de la responsabilité algorithmique, a déclaré :
« Le sommet mondial sur les risques associés à l’intelligence artificielle organisé par le Royaume-Uni doit montrer l’exemple dans la course mondiale à la réglementation de l’IA, et ne doit pas être dominé par des discours spéculatifs sur les “menaces existentielles” que représentent ces technologies et ignorer les personnes pour lesquelles les préjudices en matière de droits humains causés par des systèmes d’IA sont aujourd’hui les plus lourds.
« La semaine dernière, le Premier ministre Rishi Sunak a encouragé l’utilisation d’outils d’IA pour “réprimer les personnes commettant des fraudes aux prestations sociales”, qualifiant cette utilisation d’évolution technologique positive et négligeant totalement les recherches montrant la nature discriminatoire et l’utilisation souvent abusive de ces systèmes.
« Pourquoi le gouvernement ne reconnaît-il pas ces préjudices engendrés par l’IA et pourquoi ne fait-il pas le nécessaire pour la réglementer et protéger les populations les plus marginalisées ? L’ordre du jour du sommet sur l’IA favorise clairement les intérêts de l’industrie technologique, ce qui est inquiétant étant donné que ces technologies ont tendance à porter préjudice aux groupes marginalisés.
« Dans le cadre d’une précédente expérience menée avec ces technologies au Royaume-Uni, le département du Travail et des Retraites avait pris pour cible injustement des personnes en situation de handicap, les soumettant à des enquêtes sur des fraudes aux prestations sociales et les prenant au piège d’un labyrinthe bureaucratique sans fin, sans aucune perspective de transparence ou de justice.
« En 2021, des recherches d’Amnistie internationale avaient dénoncé les conséquences dévastatrices d’un système d’IA discriminatoire utilisé par les autorités fiscales néerlandaises pour détecter les demandes frauduleuses d’allocations familiales, ainsi que ses impacts accrus sur le droit à la sécurité sociale des personnes issues de minorités ethniques. Quatre ans plus tard, les personnes concernées attendent toujours justice et obligation de rendre des comptes.
« Les États ont tendance à mettre en place des systèmes d’IA comme “solutions techniques” à des problèmes sociétaux, mais ces systèmes sont en réalité souvent des mesures de réduction des coûts qui aggravent les politiques punitives à l’encontre des personnes marginalisées.
« Les engagements qui seront pris lors du sommet ne devront pas rester axés sur les discours alarmistes quant à l’IA, mais plutôt permettre de se rapprocher de réglementations qui permettront de veiller à ce que les droits humains et les voix des populations touchées soient au cœur de nos protections contre les préjudices causés par l’IA. »
Complément d’information
Amnistie internationale, en collaboration avec 100 organisations de la société civile, a appelé le gouvernement britannique à mettre les populations et travailleurs et travailleuses les plus touchés par l’IA au premier plan de la prise de décisions quant à l’IA.
Amnistie internationale, qui fait partie d’une coalition d’organisations de la société civile menée par le Réseau européen des droits numériques (EDRi), a demandé l’adoption d’une réglementation européenne sur l’intelligence artificielle qui protège et promeuve les droits humains, notamment les droits des personnes en mouvement.