Grok, l'intelligence artificielle développée par Elon Musk pour la plateforme X, a récemment décidé de restreindre sa fonctionnalité de génération d'images pour les abonnés non payants. Cette mesure fait suite à une vague de critiques internationales concernant la création d'images à caractère sexuel, notamment impliquant des femmes et des mineurs. Les préoccupations avaient été alimentées par la possibilité que l'IA puisse produire des images retouchées représentant des personnes dans des contextes inappropriés.
Suite à ces controverses, Grok a annoncé sur la plateforme que « la création et l’édition d’images ne sont désormais accessibles qu’aux utilisateurs abonnées payants, en raison de la situation actuelle ». Cette décision a suscité une indignation significative, notamment au Royaume-Uni, où des responsables politiques, comme Keir Starmer, ont vivement critiqué cette régulation, la qualifiant de « vulgarisation de contenus illégaux » et d’une « insulte aux victimes de misogynie et de violences sexuelles ». Liz Kendall, ministre chargée des Technologies, a également qualifié ces générateurs d'images d'« absolument révoltants et inacceptables » dans une société moderne.
À l'échelle européenne, la Commission a rapidement réagi. Thomas Régnier, porte-parole pour les affaires numériques, a déclaré que « peu importe la nature de l'abonnement, cela ne règle pas notre problème fondamental : les plateformes doivent prévenir la création de tels contenus illégaux ». Le bloc européen a même pris des mesures conservatoires visant à conserver tous les documents internes relatifs à Grok jusqu'à fin 2026, dans le cadre d'une enquête plus large sur les pratiques de la plateforme.
Grok n'est pas la seule technologie en ligne sous pression. De nombreux experts, y compris des spécialistes de l'intelligence artificielle, ont exprimé leurs préoccupations concernant l'éthique et la sécurité de l'IA. Ils soulignent que la responsabilité des entreprises de technologie est cruciale pour prévenir la propagation de contenus nuisibles. Selon une étude de France 24, ces défis éthiques nécessitent un débat public approfondi et une réglementation plus stricte pour protéger les utilisateurs fragiles.
En conséquence, la situation actuelle ne semble pas près de se stabiliser, alors que les acteurs politiques et la société civile continuent de demander des comptes aux entreprises technologiques pour les dérives potentielles des IA dans la création de contenu.







