La ministre espagnole de la Jeunesse et de l’Enfance, Sira Rego, a déposé une demande officielle auprès du ministère public pour enquêter sur cette affaire, alléguant que Grok, l’intelligence artificielle de la plateforme X, avait produit du matériel sexuellement violent contre des enfants.
Dans la déclaration du ministère, il a été déclaré que, sur la base des rapports de divers médias, Grok avait créé des images contenant des violences sexuelles contre des mineurs à la demande des utilisateurs.
La déclaration comprenait les déclarations suivantes :
«Cette pratique ne peut pas être considérée comme une utilisation neutre de la technologie. Elle peut constituer un délit de pédopornographie au sens de l’article 189 du Code pénal et un délit contre l’intégrité morale au sens de l’article 173. De telles pratiques portent gravement atteinte à la dignité, à la vie privée et aux droits fondamentaux des enfants et des adolescents dans l’environnement numérique.»
Précédents juridiques et violence numérique
Dans sa requête, le ministre Rego a également fait référence à la décision du Tribunal pour enfants de Badajoz du 20 juin 2024. Dans cette décision, les personnes qui ont manipulé les images de filles grâce à l’intelligence artificielle ont été condamnées et cette pratique a été considérée comme une forme de « violence numérique ». Rego a souligné qu’il est essentiel que le parquet analyse ces incidents «très graves» et prenne les mesures nécessaires pour garantir le développement sûr des enfants sur Internet.
Priorité France : «Contenus sexistes et illégaux»
Le gouvernement français a également déposé la semaine dernière une plainte pénale similaire contre l’intelligence artificielle d’Elon Musk. Les autorités françaises ont déclaré que Grok avait autorisé la production de « deepfakes » non consensuels (fausses vidéos réalistes) et de contenus sexistes/sexuels. Il a été rapporté que, surtout depuis fin décembre, des utilisateurs ont demandé à l’intelligence artificielle de créer des images montrant des femmes nues sans leur consentement, et celles-ci se sont répandues massivement.
Grok avoue : « Il y a des lacunes dans les protections »
La plateforme Grok elle-même a admis au début de l’année que des images sexualisées d’enfants étaient publiées grâce à sa technologie. L’intelligence artificielle a reconnu que cette pratique était un crime et a fait la déclaration suivante :
«Nous avons identifié des lacunes dans les mesures de sécurité et nous travaillons à les corriger de toute urgence. Notre société de développement, xAI, s’engage à prévenir ces problèmes.»
De plus, Grok a noté qu’en vertu de la loi fédérale américaine, une entreprise pourrait être confrontée à de lourdes sanctions pénales ou civiles si elle ne parvenait pas à empêcher les contenus pédopornographiques (CSAM) générés par l’IA.