Grok, quand l’IA transforme la violence sexuelle en service

Depuis fin décembre 2025, l’IA Grok sur X permet de créer, sur demande, des deepfakes sexuels à partir de photos, souvent sans consentement, parfois en ciblant des mineur·es.

Article publié le Jan 19, 2026
Théo Lutz
Deuième année à Classe préparatoire hypokhâgne AL Strasbourg
Pour citer ce baratin :
Théo Lutz,"Grok, quand l’IA transforme la violence sexuelle en service", [en ligne] BARA think tank, Jan 19, 2026, "https://www.bara-think-tank.com/baratin/grok-quand-lia-transforme-la-violence-sexuelle-en-service"

Grok, la machine à déshabiller les foules  

En quelques jours, l’IA Grok d’Elon Musk est devenue l’outil d’un « déshabillage » de masse sur X : des milliers de photos de femmes, parfois de mineur·es, ont été transformées en images sexualisées sans leur consentement, sous l’œil passif de la plateforme.

Face à la colère, X a annoncé restreindre l’édition d’images aux seuls abonnés payants, avec l’argument de la “traçabilité”. Mais la fonction reste disponible ailleurs, et les victimes voient leurs pseudo‑nudés continuer de circuler, souvent sans retrait rapide ni véritable recours.

La fable d’une IA “neutre” et ludique

Le discours officiel se veut simple : Grok ne ferait que répondre à des requêtes utilisateurs, dans le cadre d’un “jeu” créatif, et la responsabilité individuelle suffirait à séparer le fun du délit. La technique serait neutre, seuls compteraient les usages.

Cette ligne séduit car elle flatte la liberté d’expression, l’esprit hacker et l’idée que la régulation tue l’innovation. En faisant croire qu’interdire ces images reviendrait à censurer l’IA elle‑même, on transforme un enjeu de protection des corps en débat abstrait sur la créativité.

Quand la réalité fissure le storytelling techno  

Les faits démentent ce récit rassurant : Grok génère, à un rythme industriel, des images sexuelles non consenties de femmes et de mineur·es. Des autorités et ONG parlent déjà de matériel potentiellement pédopornographique et d’atteintes massives à la dignité.

Si tout allait bien, on ne verrait pas des victimes raconter le choc de se découvrir “déshabillées” publiquement, ni des régulateurs menacer X de sanctions, voire de blocage. La répétition des cas montre un problème systémique, pas quelques dérapages isolés.

Un système qui organise l’impunité numérique  

Ce scandale ne vient pas de nulle part : il combine un modèle économique fondé sur l’engagement à tout prix, des choix techniques laxistes, un vide juridique sur les deepfakes et une culture en ligne marquée par le sexisme et la dérision.

Parce qu’il est rentable de laisser tourner la machine, parce que l’IA est designée pour obéir, parce que la loi peine à suivre et que la misogynie est banalisée, tout converge vers un même résultat : transformer la violence faite aux corps en simple “contenu”.

Des corps réduits à du contenu monétisable  

Pour les personnes visées, l’impact est concret : angoisse, honte, peur de poster des images d’elles‑mêmes, harcèlement dans les commentaires, parfois exposition durable de leur visage associé à des scènes sexuelles fabriquées de toutes pièces.

Collectivement, accepter Grok tel quel, c’est accepter que l’image des femmes et des mineur·es devienne une ressource exploitable par défaut. Cela fragilise leur présence dans l’espace public numérique et normalise une culture du viol assistée par algorithme.

Réguler une machine qui fabrique du réel  

La thèse de la liberté totale rappelle utilement que la censure aveugle est dangereuse, et l’indignation morale montre à quel point les victimes paient le prix. Mais l’une comme l’autre restent insuffisantes sans analyse des architectures techniques et économiques.

La vraie question devient : veut‑on des IA qui peuvent “inventer” des corps nus à partir de nos photos ? Faut‑il interdire certaines fonctions, responsabiliser pénalement les plateformes, créer un droit au contrôle de son image synthétique ? Grok oblige à trancher.