Édition du 17 février 2026

Une tribune libre pour la gauche québécoise en marche

Le mouvement des femmes dans le monde

L’essor de la pornographie deepfake, dans les écoles : « {Une fille était tellement horrifiée qu’elle a vomi} »

L’utilisation des applications « nudify » est de plus en plus répandue, des centaines d’enseignant·es ayant vu des images créées par des élèves, souvent de leurs camarades. Les répercussions sont énormes et ne cessent de s’amplifier.

« Cela m’inquiète que cela soit devenu si normal. Il ne le cachait manifestement pas. Il ne pensait pas que c’était quelque chose qu’il ne devait pas faire. C’était au vu et au su de tous et toutes, et des personnes l’ont vu. C’est ce qui était assez choquant. »

Un directeur d’école décrit comment un adolescent, assis dans un bus sur le chemin du retour après l’école, a sorti son téléphone, sélectionné une photo d’une fille d’une école voisine sur les réseaux sociaux et utilisé une application de « nudification » pour modifier son image.

Il y a dix ans, c’étaient les sextos et les photos de nus qui semaient le chaos dans les salles de classe. Aujourd’hui, les progrès de l’intelligence artificielle (IA) ont rendu très facile la création d’images ou de vidéos deepfake [infox vidéo ou vidéotox] de nu·es, mettant en scène ce qui semble être vos ami·es, vos camarades de classe, voire vos professeur·es. Cela peut impliquer de retirer des vêtements, de faire bouger une image de manière suggestive ou de coller la tête de quelqu’un·e sur une image pornographique.

La directrice ne sait pas pourquoi cette fille en particulier, élève de son école, a été choisie, si le garçon la connaissait ou si c’était complètement aléatoire. Elle n’en a pris connaissance que parce qu’un·e autre de ses élèves a remarqué ce qui se passait et l’a signalé à l’école.

Les parent·es ont été contacté·es, le garçon a été retrouvé et la police a été appelée. Mais la stigmatisation et la honte associées aux abus sexuels par le biais d’images et au partage dedeepfakes sont telles qu’il a été décidé de ne pas en parler à la jeune fille qui en était la cible.

« La jeune fille n’est même pas au courant », a déclaré la directrice. « J’ai parlé aux parent·es et elles et il ne voulaient pas qu’elle le sache. »

Le garçon dans le bus n’est qu’un exemple parmi d’autres de la façon dont les deepfakes et les technologies de nudification facilement accessibles sont utilisés par les écolier·es, souvent avec des conséquences désastreuses. En Espagne, l’année dernière, 15 garçons de la région sud-ouest de l’Estrémadure ont été condamnés à un an de probation après avoir été reconnus coupables d’avoir utilisé l’IA pour produire de fausses images nues de leurs camarades de classe féminines, qu’ils ont partagées sur des groupes WhatsApp. Une vingtaine de filles ont été touchées, la plupart âgées de 14 ans, la plus jeune ayant 11 ans.

En Australie, une cinquantaine d’élèves du lycée Bacchus Marsh Grammar, dans l’État de Victoria, ont signalé que leurs images avaient été falsifiées et diffusées. La mère d’une élève a déclaré que sa fille avait été tellement horrifiée par ces images sexuellement explicites qu’elle avait vomi. Aux États-Unis, plus de 30 élèves du lycée Westfield, dans le New Jersey, ont découvert que des images pornographiques deepfake les représentant avaient été partagées entre leurs camarades de classe masculins sur Snapchat.

Ce phénomène touche également le Royaume-Uni. Un nouveau sondage réalisé auprès de 4 300 enseignant·es du secondaire en Angleterre par Teacher Tapp pour le compte du Guardiana révélé qu’environ un·e sur dix savait que des élèves de son établissement avaient créé des « vidéos deepfake à caractère sexuellement explicite » au cours de la dernière année scolaire.

Les trois quarts de ces incidents concernaient des enfants âgés de 14 ans ou moins, tandis qu’un incident sur dix concernait des enfants de 11 ans et 3% concernaient des enfants encore plus jeunes, ce qui montre à quel point cette technologie est facile d’accès et d’utilisation. Parmi les enseignant·es participant·es, 7% ont déclaré avoir eu connaissance d’un seul incident, 1% ont déclaré que cela s’était produit deux fois, tandis qu’une proportion similaire a déclaré que cela s’était produit trois fois ou plus au cours de la dernière année scolaire.

Au début de l’année, une enquête menée par Girlguiding a révélé qu’un quart des personnes interrogées âgées de 13 à 18 ans avaient vu une image deepfake sexuellement explicite d’une célébrité, d’un·e ami·e, d’un·e enseignant·e ou d’elleux-mêmes.

«  Il y a un an, j’utilisais des exemples provenant des États-Unis et d’Espagne pour parler de ces questions », explique Margaret Mulholland, spécialiste des besoins spéciaux et de l’inclusion à l’Association of School and College Leaders. « Aujourd’hui, cela se produit chez nous et c’est vraiment inquiétant. »

«  La police semble complètement dépassée par l’ampleur de ces problèmes. Nous avons besoin de solutions plus globales et d’une meilleure stratégie.  »

L’année dernière, le Times a rapporté que deux écoles privées au Royaume-Uni faisaient l’objet d’une enquête policière pour fabrication et partage présumés d’images pornographiques deepfake. Le journal a déclaré que la police enquêtait sur des allégations selon lesquelles les deepfakes auraient été créés dans une école de garçons par une personne manipulant des images provenant des comptes de réseaux sociaux d’élèves d’une école de filles.

La commissaire à l’enfance pour l’Angleterre, Dame Rachel de Souza, a demandé l’interdiction des applications de nudification telles que ClothOff, qui a fait l’objet d’une enquête dans le cadre de la série de podcasts Black Box du Guardian sur l’IA. « Les enfants m’ont dit qu’elles et ils étaient effrayés par l’idée même que cette technologie soit disponible, sans parler de son utilisation  », explique-t-elle.

Il n’est pas facile de trouver des enseignant·es prêt·es à parler des incidents liés aux deepfakes. Celles et ceux qui ont accepté d’être interviewé·es par le Guardian ont insisté pour rester anonymes. D’autres témoignages ont été fournis par des universitaires qui mènent des recherches sur les deepfakes dans les écoles et par des prestataires d’éducation sexuelle.

Tanya Horeck, professeure de cinéma et d’études féministes des médias à l’université Anglia Ruskin, s’est entretenue avec des chef·fes d’établissement dans le cadre d’une mission d’enquête visant à évaluer l’ampleur du problème dans les écoles. « Tous et toutes ont été confrontées à des incidents liés aux deepfakes dans leurs établissements et considèrent qu’il s’agit d’un problème émergent  », explique-t-elle. Dans un cas, une jeune fille de 15 ans nouvellement arrivée dans une école a été prise pour cible par des élèves masculins qui ont créé une vidéo pornographique deepfake la mettant en scène. Elle était tellement bouleversée qu’elle a d’abord refusé d’aller à l’école. « Presque tous les exemples qu’elles et ils m’ont cités concernaient des garçons créant des deepfakes de filles », explique Mme Horeck.

« J’ai également remarqué qu’il existait une réelle tension quant à la manière dont elles et ils devaient gérer ces problèmes. Certain·es enseignant·es disaient : « Oui, nous appelons immédiatement la police et les élèves sont expulsés  », explique Mme Horeck. « D’autres enseignant·es disaient : «  Ce n’est pas la bonne façon de gérer la situation. Nous devons adopter une approche plus axée sur la justice réparatrice, en discutant avec ces jeunes et en cherchant à comprendre pourquoi ils agissent ainsi. »

«  Il semble donc y avoir une certaine incohérence et une certaine incertitude quant à la manière de traiter ces cas, mais je pense que c’est vraiment difficile pour les enseignants, car elles et ils ne reçoivent pas de directives claires. »

Laura Bates, fondatrice du projet Everyday Sexism, affirme que les images deepfake ont quelque chose de particulièrement choquant. Dans son livre The New Age of Sexism : How the AI Revolution Is Reinventing Misogyny (La nouvelle ère du sexisme : comment la révolution de l’IA réinvente la misogynie), elle écrit : «  De toutes les formes d’abus dont je suis victime, ce sont celles qui me blessent le plus profondément, celles qui me marquent le plus. Il est difficile d’expliquer pourquoi, si ce n’est que cela ressemble à soi-même. C’est comme si quelqu’un vous avait pris et vous avait fait quelque chose, sans que vous puissiez rien y faire. Regarder une vidéo de soi-même en train d’être violée sans son consentement est une expérience presque extracorporelle.  »

Chez les enfants d’âge scolaire, l’impact peut être considérable. Les filles et les jeunes femmes se sentent violées et humiliées. Les groupes d’ami·es à l’école sont brisés et un profond sentiment de trahison peut apparaître lorsqu’une élève découvre qu’un autre a créé une image sexualisée deepfake d’elle ou de lui et l’a partagée dans toute l’école. Les filles ne peuvent plus suivre les cours, tandis que les enseignant·es, peu formé·es, font de leur mieux pour les soutenir et les éduquer. Pendant ce temps, les garçons et les jeunes hommes sont entraînés dans des comportements criminels, souvent parce qu’ils ne comprennent pas les conséquences de leurs actes.

«  Nous voyons des élèves très bouleversé·es, qui se sentent trahi·es et horrifié·es par ce type d’abus  », explique Dolly Padalia, PDG de la School of Sexuality Education, une organisation caritative qui dispense des cours d’éducation sexuelle dans les écoles et les universités. « Un exemple est celui d’une école qui nous a contactés. Un élève avait pris des photos de nombreuses et nombreux élèves de sa classe et réalisait des deepfakes.

Ces images ont ensuite été divulguées, ce qui a eu des répercussions considérables. Les élèves étaient vraiment bouleversé·es. Elles et ils se sentaient très trahi·es et violé·es. Il s’agit d’une forme d’abus. La police a été impliquée. L’élève a été renvoyé de l’école et on nous a demandé d’intervenir pour apporter notre soutien. L’école a réagi très rapidement, mais je dirais que cela n’est pas suffisant. Pour vraiment prévenir la violence sexuelle, nous devons être plus proactifs/proactives. »

On estime que 99% des deepfakes sexuellement explicites accessibles en ligne concernent des femmes et des filles, mais il existe des cas où des garçons sont pris pour cible. L’association caritative Everyone’s Invited (EI), qui recueille les témoignages de victimes d’abus sexuels, a rencontré au moins un cas de ce type : «  Un élève a raconté à l’équipe pédagogique de l’EI qu’un garçon de sa classe, très apprécié et ami avec beaucoup de filles, avait été pris pour cible lorsqu’un autre garçon avait créé une image sexuelle de lui à l’aide de l’IA. Cette image a ensuite circulé dans toute l’école, causant une détresse et un traumatisme importants. »

EI souligne également la banalisation et l’utilisation inquiétante de ces outils, comme le filtre «  transformez votre ami·e en petit·e ami·e ». «  Sur les réseaux sociaux tels que TikTok et Snapchat, ils sont de plus en plus accessibles et normalisés. Si cela peut sembler ludique ou inoffensif pour certains, cela reflète et renforce une culture où le consentement et le respect des limites personnelles sont bafoués.  »

Dans un contexte de misogynie généralisée dans les écoles, un nombre croissant d’enseignants·e sont également pris·es pour cible, selon l’IE et d’autres sources : « C’est un problème auquel nous devons nous attaquer de toute urgence en tant que société. L’éducation doit rester en avance sur la technologie, et les adultes doivent se sentir capables de mener ces conversations plutôt que de les éviter. »

Seth James est responsable de la protection des enfants – un membre senior du personnel chargé de la protection et de la sécurité des enfants au sein d’une école – et auteur du blog DSL. «  Pour tous ceux et toutes celles qui travaillent dans les écoles, on a l’impression que les progrès technologiques font constamment apparaître de nouveaux défis et risques  », dit-il. «  L’IA en général – et en particulier les deepfakes et les applications de nudification – donne l’impression d’être le prochain train qui arrive sur les rails.

«  Une « meilleure éducation  » semble être une solution attrayante à ce type de défis, car elle est intuitive et relativement facile à mettre en œuvre, mais à elle seule, elle revient à essayer d’éteindre un incendie de forêt avec un pistolet à eau. De même, la police semble complètement dépassée par l’ampleur de ces problèmes. En tant que société, nous avons besoin de solutions plus larges et d’une meilleure stratégie. »

Il poursuit : « Nous devrions tous et toutes essayer d’imaginer ce que nous aurions ressenti il y a 20 ans si quelqu’un avait suggéré d’inventer un appareil portable permettant de créer du matériel pornographique réaliste mettant en scène des personnes réelles que vous connaissez dans la vie réelle. Et puis, ils auraient suggéré de donner un de ces appareils à tous et toutes nos enfants. Parce que c’est essentiellement là où nous en sommes aujourd’hui. Nous laissons ces choses devenir « normales » sous nos yeux.  »

Jessica Ringrose, professeure de sociologie du genre et de l’éducation à l’Institut d’éducation de l’University College London, a travaillé dans des écoles sur des questions telles que la masculinité, l’inégalité entre les sexes et la violence sexuelle. Elle est également co-autrice d’un livre intitulé Teens, Social Media, and Image Based Abuse (Les adolescent·es, les réseaux sociaux et les abus basés sur l’image) et mène actuellement des recherches sur la violence sexiste facilitée par la technologie.

« La façon dont les jeunes utilisent ces technologies n’est pas nécessairement mauvaise », dit-elle, « mais ce dont elles et ils ont besoin, c’est d’une meilleure éducation aux médias. » Elle se félicite de la mise à jour des directives gouvernementales en matière d’éducation aux relations, à la sexualité et à la santé, qui « reconnaissent que la misogynie est un problème qui doit être abordé dans le système scolaire ». Cependant, elle ajoute : « Elles doivent relier les points entre eux. Elles doivent associer la question du genre et de la violence sexuelle à celle des technologies. On ne peut pas compter sur l’Ofcom ou les régulateurs/régulatrices pour protéger les jeunes. Nous avons besoin d’une éducation proactive et préventive. »

Où se situe le gouvernement dans tout cela ? « Nos nouvelles directives en matière d’éducation relationnelle, sexuelle et sanitaire permettront de s’assurer que tous les jeunes comprennent ce que sont des relations saines, l’éthique sexuelle et les dangers des contenus en ligne tels que la pornographie et les deepfakes  », a déclaré un·e porte-parole du ministère de l’Éducation. « Dans le cadre de notre mission Plan for Change visant à réduire de moitié la violence à l’égard des femmes et des filles, nous fournissons également aux écoles de nouvelles ressources financées pour aider les enseignant·es à expliquer la loi et les dangers liés aux contenus en ligne dans le cadre de leurs cours adaptés à l’âge des élèves. »

Ringrose insiste sur l’urgence. «  Ces problèmes existent bel et bien : la création et la diffusion d’images non consenties sont une réalité. Ces technologies sont à la portée de tous et toutes. Je veux dire, il est extrêmement facile pour n’importe quel·le enfant d’accéder à ces choses. »

Elle est sceptique quant aux efforts visant à interdire les smartphones dans les écoles et craint que cela ne rende plus difficile pour les jeunes qui pourraient être victimes d’images abusives de demander de l’aide. «  L’abstinence vis-à-vis de choses comme la technologie ne fonctionne pas  », dit-elle. «  Il faut en fait apprendre aux gens à l’utiliser correctement. Nous devons aborder cette question comme un élément vraiment important du programme scolaire.  »

Ce qui nous ramène au garçon dans le bus, là où cette histoire a commencé. Il a été arrêté parce qu’une fille dans le même bus avait récemment suivi un cours à l’école sur la sécurité en ligne dans le cadre de son programme PSHE (personnel, social, santé et économique). Elle a reconnu ce qu’il faisait et l’a signalé à ses professeur·es.

L’éducation fonctionne.

Sally Weale, 2 décembre é025
https://www.theguardian.com/society/ng-interactive/2025/dec/02/the-rise-of-deepfake-pornography-in-schools
Traduit par DE

******

Abonnez-vous à notre lettre hebdomadaire - pour recevoir tous les liens permettant d’avoir accès aux articles publiés chaque semaine.

Chaque semaine, PTAG publie de nouveaux articles dans ses différentes rubriques (économie, environnement, politique, mouvements sociaux, actualités internationales ...). La lettre hebdomadaire vous fait parvenir par courriel les liens qui vous permettent d’avoir accès à ces articles.

Remplir le formulaire ci-dessous et cliquez sur ce bouton pour vous abonner à la lettre de PTAG :

Abonnez-vous à la lettre

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par les responsables.

Qui êtes-vous ?
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.

Sur le même thème : Le mouvement des femmes dans le monde

Sections

redaction @ pressegauche.org

Québec (Québec) Canada

Presse-toi à gauche ! propose à tous ceux et celles qui aspirent à voir grandir l’influence de la gauche au Québec un espace régulier d’échange et de débat, d’interprétation et de lecture de l’actualité de gauche au Québec...