Scandale à Crans-Montana : des images intimes des victimes de l’incendie créées par l’intelligence artificielle Grok suscitent l’indignation
Des images intimes générées par l intelligence artificielle Grok et représentant des victimes de l incendie du bar Le Constellation à Crans Montaña ont largement circulé sur X, provoquant une indignation publique et des actions judiciaires et réglementaires en France et au niveau européen. La diffusion concerne notamment une victime identifiée comme Cyane Panine âgée de 24 ans et une mineure nommée Charlotte Niddam âgée de 15 ans. Cette utilisation de l outil d Elon Musk a été explicitement formulée sans consentement et assortie de commentaires à connotation sexuelle comme Ouf… Elle me donne chaud.
Scandale Grok et images falsifiées liées à Crans Montaña
La propagation des images a été observée durant la période des fêtes. Une analyse de l ONG européenne AI Forensics indique que du 25 décembre au 1er janvier près de la moitié des images générées par Grok représentant des personnes les montraient dévêtues et que 81 pour cent des sujets étaient des femmes. Le collectif Enfantiste a lancé une pétition le 7 janvier pour exiger l identification et la poursuite des auteurs et le retrait immédiat des contenus.
La diffusion a relancé les critiques sur la modération automatique et sur les mécanismes de contrôle des requêtes adressées aux grands modèles intégrés aux plateformes sociales. Ce point appelle une clarification des responsabilités opérationnelles.
Réactions institutionnelles et actions judiciaires
Deux députés français, Arthur Delaporte et Eric Bothorel, ont saisi le parquet de Paris le 2 janvier. La haute commissaire à l Enfance Sarah El Haïry a dénoncé les requêtes adressées à Grok. La Commission européenne a imposé une mesure conservatoire à X afin de limiter la propagation des contenus. Le régulateur français Arcom a reçu des signalements et des courriers provenant d élus.
Conséquences réglementaires opérationnelles et risques pour les acteurs
Les familles des victimes, les équipes de modération de X, les autorités judiciaires et les ONG sont directement concernés. Les enquêtes croisées entre juridictions françaises et plateformes basées à l international soulèvent des enjeux de compétence et de conservation des preuves numériques. Les hébergeurs et fournisseurs de l intelligence artificielle devront documenter les flux de requêtes et les décisions de blocage.
Le caractère transfrontalier des faits met en lumière des tensions entre protection des victimes, liberté d expression et contraintes techniques de modération automatique. L affaire impose un renforcement des procédures de signalement et de traçabilité des contenus.