Si tu utilises X, tu as sûrement remarqué que le 27 janvier dernier, il était impossible de ne pas voir passer le nom de Taylor Swift dans ta TL. Et pour cause : de fausses images pornographiques générées par intelligence artificielle ont été diffusées sur la plateforme, la représentant nue aux yeux de millions de personnes. 😠
Les personnalités publiques féminines sont hélas bien familières de ces pratiques destinées à les humilier, qui étaient originellement pratiquées par la publication de vraies photos dénudées (on se souvient encore d’une Jennifer Lawrence traumatisée, ou de Sia qui poste les photos sur son compte insta pour contrer le photographe). Seulement voilà, ces attaques restaient limitées dans la mesure où il fallait dans un premier temps se procurer les photos, frein désormais levé par le deepfake, qui permet à chacun de générer de fausses images ultra réalistes en quelques secondes.
Et à tous ceux qui seraient tentés de dire « l’IA en général c’est super, ça reste des cas isolés » : non. Une étude menée par Deeptrace (une entreprise de cybersécurité) révèle que 96% des deepfakes sont à caractère pornographique, et visent majoritairement les femmes (déçus mais pas choqués). L’IA a donc facilité le harcèlement sexuel envers les femmes, et l’a mis à la portée de tous, si bien qu’aujourd’hui certains sites recensent des milliers de vidéos pornographiques représentant soit des personnalités publiques (streameuses, actrices, politiques), mais aussi des citoyennes sans notoriété. Le deepfake est donc une véritable arme utilisée contre les femmes, qui à ce jour n’est pas assez prise au sérieux par les autorités ni par les plateformes, qui pour le moment ne proposent que des mesures punitives et non pas préventives.
Le cas Taylor Swift prouve pourtant qu’il est possible de limiter la casse, puisque pour la première fois, X a appliqué des mesures pour stopper la prolifération des images : blocage de la recherche, suppression des photos, annonces par Elon Musk lui-même que les comptes ayant posté les photos seraient sanctionnés. Comme quoi c’est faisable, mais c’est avant tout un choix de la part de la plateforme, et pour le moment ce traitement est malheureusement réservé aux stars internationales disposant d’une communauté férocement engagée sur les réseaux sociaux pour interpeller la modération (et encore, la publication a été vue 47 millions de fois donc on n’y est pas).
Cette histoire a tellement fait de bruit que le vieux Joe (Biden) a pris position sur la nécessité de légiférer pour mieux lutter contre les deepfakes en général, mais c’est surtout parce que lui même en a été victime 4 jours avant Taylor Swift 🙃. Dans les faits c’est cool que la loi progresse, mais c’est dommage qu’il ait fallu attendre 5 ans depuis la naissance du deepfake pour y penser, surtout que des femmes tirent la sonnette d’alarme depuis toujours, tandis que la société semble avoir accepté que cette technologie s’immisce dans notre quotidien sans aucun garde fou.
Il est aujourd’hui nécessaire de ne pas nier la dimension profondément sexiste de l’utilisation de cet outil pour pouvoir la prévenir. D’autant plus que si jusque là l’IA était utilisée pour humilier les femmes en les dénudant, de nouvelles IA se développent avec pour objectif d’humilier les femmes en les rhabillant, c’est-à-dire en pointant du doigt le fait qu’elles portent une tenue légère sur leur photo d’origine et les couvrir davantage pour les « dignifier » (DignifiAI). Arrêtons donc de nous voiler la face, le constat est clair : sexisme et IA, vont de pair !