Monde. Les systèmes technologiques accentuent les inégalités de genre dans le monde entier
Partout dans le monde, des systèmes technologiques renforcent les inégalités de genre et ancrent les systèmes de pouvoir raciaux et socio-économiques, a déclaré Amnistie internationale le 10 juillet dans une note d'information intitulée Genre et droits humains à l'ère numérique.
Les droits humains des groupes marginalisés, notamment les femmes et les personnes LGBTI, sont menacés en raison de pratiques de collecte de données étendues et inappropriées qui ne reflètent pas leurs réalités individuelles. Les gouvernements justifient ces stratégies de capture de données en disant qu’il s’agit d’une solution économique pour déployer des systèmes automatisés dans le secteur public pour le paiement des allocations, tandis que les grandes entreprises technologiques accumulent et exploitent les données personnelles des utilisateurs·trices pour leurs lucratifs modèles commerciaux basés sur la surveillance.
Cette accumulation et ce traitement insuffisamment réglementés de vastes quantités de données constituent une surveillance de masse nuisible et renforcent la discrimination à l'égard des femmes et des personnes LGBTI.
« De la mise en œuvre incontrôlée des systèmes d'identification numérique aux algorithmes utilisés par les systèmes de prestations sociales, on constate une tendance croissante à intégrer la technologie dans tous les aspects de la vie quotidienne sur fond de « fracture numérique » genrée mondiale préexistante, l'accès à la technologie étant restreint pour certaines personnes en raison d’inégalités historiques, a déclaré Imogen Richmond-Bishop, chercheuse sur la technologie et les droits économiques, sociaux et culturels à Amnesty International.
« Toute technologie utilisée à des fins de gouvernance se trouve imbriquée dans le contexte discriminatoire de cette fracture numérique préexistante. »
Par exemple, au Pakistan, l'Autorité nationale des bases de données et de l'enregistrement (la NADRA) a suspendu la catégorie « X » sur ses cartes d'identité nationales informatisées (CNIC). Cette catégorie avait permis aux personnes de s'identifier à un genre autre que les genres masculin ou féminin. En raison de cette décision, plusieurs milliers de personnes transgenres et ne se conformant pas aux normes de genre se sont retrouvées sans documents d'identité valides, ce qui les a empêchées d'exercer leurs droits fondamentaux tels que le droit de vote et l'accès aux soins de santé et à des possibilités d'emploi. Les enregistrements sous la catégorie « X » ont toutefois repris en septembre 2023.
Outre la fracture numérique, plusieurs autres obstacles empêchent les femmes, les filles et les personnes LGBTI d’exercer leurs droits humains dans l'espace numérique, notamment en ce qui concerne l'accès aux informations sur les droits et services en matière de santé sexuelle et reproductive, comme l'avortement.
Lorsque les gouvernements ou les plateformes de médias sociaux limitent l'accès aux informations sur la santé, en particulier pour des services clés destinés aux femmes et aux personnes LGBTI, cela peut constituer une violation du droit à la santé. Cette tendance est à la hausse aux États-Unis, où des militant·e·s et des organisations pour le droit à l'avortement ont signalé des suppressions de contenu lié à l'avortement sur Meta et TikTok empêchant des personnes d'accéder à des informations vitales.
Les systèmes qui utilisent des algorithmes pour promouvoir du contenu sur les plateformes de médias sociaux peuvent également favoriser les préjugés en amplifiant le contenu préjudiciable et discriminatoire. Les recherches menées par Amnistie internationale sur TikTok ont révélé que l'entreprise infère les caractéristiques personnelles d’un·e utilisateur·trice, y compris son genre et ses centres d’intérêt, sur la base des informations dont elle dispose à son sujet, afin de personnaliser et d’adapter le contenu et les publicités.
La surveillance numérique ciblée exercée au moyen de l'utilisation de logiciels espions peut également constituer une forme de violence liée au genre facilitée par la technologie. Des femmes et des personnes LGBTI sont ciblées et surveillées en raison de leur action militante en faveur des droits humains et confrontées à une série d’effets liés au genre en raison de ce ciblage.
Les recherches menées en Thaïlande par Amnistie internationale ont révélé que des militant·e·s ont été la cible de manière malveillante et illégale d’une surveillance numérique et d’un harcèlement en ligne de la part d'acteurs étatiques et non étatiques, ce qui a eu des répercussions genrées très préjudiciables sur des défenseur·e·s femmes et LGBTI des droits fondamentaux. Ce ciblage pernicieux, exercé notamment au moyen du tristement célèbre logiciel espion Pegasus, a un « effet dissuasif » qui conduit à l’autocensure ou même à l’abandon des activités militantes dans certains cas.
Des femmes et des militant·e·s LGBTI en Thaïlande ont ainsi été victimes de diverses formes de harcèlement en ligne, notamment de doxxing, de campagnes de dénigrement, de menaces et de messages violents, dans le but de les intimider, de les bouleverser et de les réduire au silence.
« Il est essentiel que les gouvernements et les acteurs non étatiques adoptent une approche explicitement inclusive pour tous les genres en ce qui concerne la réglementation des technologies et la lutte contre les préjudices qu’elles causent. S’ils perpétuent la discrimination et les inégalités pour les femmes et les personnes LGBTI, ces systèmes ne doivent alors pas être mis en œuvre », a déclaré Imogen Richmond-Bishop.
Complément d’information
En 2024, Amnistie internationale a publié un document technique portant sur le système Samagra Vedika utilisé dans l'État indien du Telangana. Ce document a été publié à la suite d’articles dans les médias mettant en cause Samagra Vedika, qui aurait exclu des milliers de personnes de l'accès à des mesures de protection sociale, notamment en matière de sécurité alimentaire, de revenus et de logement.
En 2023, un rapport d’Amnistie internationale intitulé Trapped by Automation: Poverty and Discrimination in Serbia’s Welfare State a montré que de nombreuses personnes, en particulier des Roms et des personnes en situation de handicap, n’étaient pas en mesure de payer leurs factures ou de nourrir leur famille et avaient des difficultés à joindre les deux bouts parce qu’elles avaient été exclues du système d’assistance sociale à la suite de la mise en place du registre des cartes sociales.