Quand la justice échoue : pourquoi les femmes ne peuvent pas obtenir de protection contre l’utilisation abusive de deepfakes générés par l’IA
Qu’est-ce que l’utilisation abusive de deepfakes et pourquoi les lois, les plateformes et les systèmes judiciaires échouent-ils à protéger les femmes ?
Elle a été réveillée par une avalanche de messages sur son téléphone. Des images trafiquées d’elle, sexualisées, s’étaient répandues de façon virale pendant son sommeil.
Les rumeurs l’ont poursuivie hors ligne. En ligne, les abus ont explosé, sans aucun contrôle : commentaires, moqueries, partages, captures d’écran. Elle n’avait jamais consenti à rien de tout cela, mais cela n’a arrêté personne.
En quelques minutes, plusieurs milliers de personnes avaient visionné le contenu. Au bout de quelques heures, elles étaient des millions.
Le cauchemar ne faisait que commencer.
Plusieurs jours sont passés avant que les plateformes ne réagissent. Entre-temps, les images avaient déjà été vues, enregistrées et reproduites. Elle s’est retrouvée à se demander : à qui dois-je signaler cela ? Est-ce que quelqu’un va me croire ? Les personnes qui ont fait cela devront-elles un jour en assumer les conséquences ? Ou bien est-ce que la faute retombera sur moi ?
Ce genre d’incident est la réalité quotidienne de milliers de femmes et de filles. Les deepfakes générés par l’IA détruisent des vies réelles et la justice reste hors de portée pour la plupart des victimes.
Son histoire pourrait être la vôtre.
Qu’est-ce que l’utilisation abusive de deepfakes et à quelle fréquence des images sexuelles hypertruquées sont-elles générées ?
Les deepfakes sont des images, des fichiers audio ou des vidéos manipulés par l’IA qui donnent l’impression que quelqu’un a dit ou fait quelque chose qu’il n’a en réalité jamais dit ou fait. La technologie en elle-même n’est pas nouvelle. Mais son détournement comme arme contre les femmes et les filles est un phénomène récent, en plein essor.
Un rapport de 2023 a montré que la pornographie deepfake constituait 98 pour cent de toutes les vidéos deepfake en ligne, dont 99 pour cent représentaient des femmes. La production de vidéos deepfake a augmenté d’environ 550 pour cent entre 2019 et 2023, et les outils permettant de les créer sont largement répandus, souvent gratuits, et ne nécessitent que très peu de compétences techniques.
Une fois publiés, les contenus générés par l’IA peuvent être reproduits à l’infini, enregistrés sur des appareils privés et partagés sur différentes plateformes, ce qui rend leur suppression totale quasiment impossible.
Dans une affaire récente très médiatisée, la journaliste britannique Daisy Dixon a découvert en décembre 2025 des images sexualisées d’elle-même générées par l’IA sur X, créées à l’aide de l’outil Grok IA de la plateforme. Il a fallu plusieurs jours à la plateforme pour activer le géoblocage, tandis que les images détournées continuaient de se propager.
L’utilisation abusive de deepfakes peut servir de catalyseur en ligne pour ce qu’on appelle les « crimes d’honneur » dans certains contextes culturels, où la perception d’une violation des normes d’honneur sur les plateformes numériques peut entraîner des violences physiques extrêmes à l’égard des femmes, voire la mort.
Selon une étude récente, plus de la moitié des victimes de deepfakes aux États-Unis ont envisagé le suicide. Ce n’est pas un problème Internet marginal. Il s’agit d’une crise mondiale.
La crise de l’impunité : pourquoi les créateurs de deepfakes sont rarement traduits en justice
Malgré l’ampleur des préjudices, les poursuites judiciaires sont rares, les plateformes manquent régulièrement à leur devoir d’agir et les victimes sont souvent re-traumatisées lorsqu’elles tentent de demander de l’aide. Plusieurs facteurs expliquent pourquoi ce manque d’obligation de rendre compte est si important et si lié au genre.
1. Le droit est dépassé par les événements
Moins de la moitié des pays disposent de lois qui traitent des abus en ligne. Ils sont encore moins nombreux à avoir une législation qui cible spécifiquement les contenus deepfake générés par l’IA. La plupart des lois sur la « pornodivulgation » ou les abus basés sur des images ont été rédigées avant l’existence des deepfakes. Il existe donc des vides juridiques béants dont les auteurs profitent largement.
Dans de nombreux pays, la pornographie deepfake ou les images dénudées générées par l’IA tombent dans des zones grises juridiques, ce qui plonge les victimes dans l’incertitude quant au caractère illégal de ces abus et à la possibilité de poursuivre les auteurs en justice.
Certaines juridictions commencent à agir. La loi européenne sur l’IA, par exemple, impose des obligations de transparence en matière de deepfakes. Aux États-Unis, la loi Take It Down vise expressément les images intimes générées par l’IA et exige leur suppression des plateformes dans les 48 heures ; mais de telles lois restent rares.
En avril 2025, le Brésil a modifié son code pénal afin d’alourdir les sanctions pour les violences psychologiques infligées aux femmes à l’aide de l’IA ou d’autres technologies permettant de modifier leur image ou leur voix.
La loi britannique sur la sécurité en ligne interdit le partage d’images explicites manipulées numériquement, mais ne prévoit rien pour la création de deepfakes et peut ne pas s’appliquer si l’intention de nuire n’est pas prouvée.
L’ambiguïté de la loi et le peu d’intérêt accordé au consentement permettent aux auteurs d’échapper aux conséquences, même lorsqu’un cadre existe.
2. L’application de la loi est à la traîne
Même lorsque des lois existent, elles sont souvent mal appliquées. Les enquêteurs doivent pouvoir s’appuyer sur une expertise en criminalistique numérique, une coordination transfrontalière et la coopération des plateformes pour monter un dossier. Or, la plupart des systèmes judiciaires ne disposent pas des ressources suffisantes à cet effet.
Les preuves disparaissent rapidement à mesure que le contenu se propage et que les copies se multiplient. Les auteurs se cachent derrière l’anonymat ou opèrent dans plusieurs juridictions. Les plateformes sont lentes, voire réticentes, pour partager leurs données avec les forces de l’ordre, en particulier dans les affaires transfrontalières. Le retard dans les enquêtes numériques fait que les affaires sont bloquées avant même d’avoir commencé.
Il en résulte un système judiciaire souvent sous-financé, fragmenté et structurellement incapable de suivre le rythme des évolutions technologiques, alors que les préjudices qu’il ne parvient pas à traiter touchent principalement les femmes et les filles.
3. Les victimes sont réduites au silence avant même d’avoir porté plainte
Le sous-signalement est l’un des principaux obstacles à la responsabilisation, et il n’est pas difficile de comprendre pourquoi les victimes gardent le silence.
Pour les femmes victimes, le fait de signaler l’utilisation abusive de deepfakes implique de montrer leurs images artificiellement sexualisées à des policiers, des avocats et des modérateurs de plateformes. Cela signifie que leur nom apparaîtra dans les registres officiels, qu’elles risquent d’attirer l’attention des médias et qu’elles pourraient faire l’objet de poursuites en diffamation de la part des mêmes personnes qui les ont abusées. Cela signifie aussi qu’elles devront affronter un système judiciaire qui remet régulièrement en question la crédibilité des femmes devant les tribunaux en rejetant la faute sur les victimes, en passant au peigne fin leurs relations et leurs comportements passés, et en témoignant d’une misogynie persistante.
De nombreuses victimes choisissent donc plutôt de bloquer ou de retirer les images et d’essayer de survivre, car l’urgence consiste d’abord à supprimer le contenu et à se protéger. Mais cette attitude permet aux auteurs des abus de s’en tirer à bon compte.
4. Les plateformes manquent à leurs obligations envers les victimes
Les plateformes technologiques se cachent depuis longtemps derrière leur statut d’« intermédiaires » pour échapper à la responsabilité vis-à-vis des contenus générés par leurs utilisateurs et utilisatrices. Dans la pratique, les plateformes tardent à supprimer les contenus abusifs, ont des processus de signalement opaques et incohérents, rejettent automatiquement les demandes de retrait des contenus et ne coopèrent que très peu, voire pas du tout, avec les forces de l’ordre.
La charge que représente la suppression de ces contenus pour les victimes est cruellement irréaliste. On attend d’elles qu’elles traquent chaque copie de leurs images intimes publiées sans leur consentement sur de multiples plateformes et qu’elles continuent à les signaler. Pendant ce temps, la propagation des contenus se poursuit.
Ce que vous pouvez faire pour les droits, la justice et l'action.
La justice ne tombe pas du ciel. Elle se construit et doit être financée.
Rejoignez et soutenez ONU Femmes en cette Journée internationale des femmes, alors que nous continuons à soutenir les mouvements de femmes à travers le monde et à travailler avec les gouvernements qui choisissent l'égalité.
Réclamer justice, subir davantage de préjudices : pourquoi les victimes ne signalent-elles pas les contenus, et que se passe-t-il lorsqu’elles le font ?
Pour les victimes qui osent se manifester, le système judiciaire devient souvent une nouvelle source de traumatisme.
On leur demande de visionner et de décrire à plusieurs reprises les contenus abusifs, en présence de la police, d’avocats ou de modérateurs de plateformes. Elles doivent répondre à des questions telles que « Êtes-vous sûre que ces images ne sont pas réelles ? » ou « Avez-vous déjà partagé des images intimes auparavant ? ».
Si l’affaire est portée devant les tribunaux, ce sont leurs vêtements, leurs relations et leurs comportements passés qui sont passés au crible, et non ceux de l’auteur des faits.
Et le préjudice ne se limite pas à l’espace en ligne. Selon une enquête réalisée par ONU Femmes, 41 pour cent des femmes publiques victimes de violence numérique ont également déclaré avoir été confrontées à des agressions ou à du harcèlement hors ligne liés à cette violence. L’utilisation abusive de deepfakes envahit tous les aspects de la vie des victimes.
Réinventer la justice : ce dont les victimes ont réellement besoin
Les victimes d’utilisation abusive de deepfakes ne demandent pas de compassion, elles demandent un système qui leur rende justice et empêche les abus.
Cela signifie qu’il faut les croire.
Cela signifie avoir accès à une justice qui inflige des sanctions réelles aux auteurs de ces abus.
Cela signifie que les victimes doivent bénéficier d’un soutien pour se remettre d’un préjudice réel, durable et dévastateur.
Enfin, cela signifie que les plateformes et les gouvernements ne se contentent pas d’intervenir a posteriori, mais agissent pour prévenir de futurs abus.
De la crise à l’action : ce qui doit se passer maintenant
L’utilisation abusive de deepfakes est une action d’origine humaine : ces contenus sont générés par des outils d’IA à la demande d’êtres humains. Elle n’est ni évitable ni imparable. Mais pour y mettre fin, il faut une action urgente et coordonnée de la part des gouvernements, des institutions et des plateformes technologiques. Les mesures à prendre sont les suivantes
1. Adopter des lois qui ciblent véritablement l’utilisation abusive de deepfakes.
Les gouvernements doivent adopter une législation qui définit clairement les abus générés par l’IA et qui met l’accent sur le consentement, la responsabilité stricte des auteurs, les obligations de suppression rapide des contenus par les plateformes et des protocoles d’application transfrontaliers, car les abus ne respectent pas les frontières nationales.
2. Instaurer des systèmes judiciaires capables d’enquêter et de poursuivre.
Les forces de l’ordre ont besoin de formation, de ressources et de capacités dédiées pour collecter et conserver les preuves numériques. Le retard en criminalistique numérique doit être comblé, et les cadres de coopération internationale doivent être rapides, fonctionnels et adaptés à leur objectif.
3. Obliger les plateformes à rendre des comptes.
Les entreprises technologiques doivent être tenues par la loi de surveiller de façon proactive les contenus abusifs et de les supprimer dans des délais obligatoires, de coopérer avec les forces de l’ordre et d’assumer des conséquences financières concrètes lorsqu’elles ne prennent pas les mesures nécessaires. L’autorégulation n’a pas fonctionné.
4. Apporter un soutien réel aux victimes.
Les forces de l’ordre et les professionnels du droit doivent être formés et sensibilisés aux traumatismes, et une aide juridique gratuite doit être mise en place pour s’assurer que les procédures de signalement ne revictimisent pas les personnes qu’elles sont censées aider, et pour éviter que l’accès à la justice ne devienne impossible en raison de son coût. Un système judiciaire bien coordonné, où différents acteurs mettent les victimes en relation avec les services dont elles ont besoin, est également nécessaire.
5. Dispenser une éducation pour prévenir les abus.
La littératie numérique, notamment l’éducation au consentement, la sécurité en ligne et les mesures à prendre en cas d’abus, doit être accessible à tout le monde, dès le plus jeune âge. La prévention est aussi importante que les poursuites judiciaires.
L’utilisation abusive de deepfakes est la partie émergée d’un phénomène beaucoup plus large de violence numérique qui vise les femmes et les filles. Il prend de l’ampleur. Il est lié au genre. Et à l’heure actuelle, les systèmes conçus pour protéger les personnes échouent, tandis que les outils permettant de causer du tort deviennent chaque jour moins chers, plus rapides et plus faciles à utiliser.
Cela doit changer. Et cela doit changer maintenant.