Deepfakes et IA : la plateforme X sous pression après l’affaire Grok
L’intelligence artificielle intégrée au réseau social X se retrouve au centre d’une controverse majeure. Ces derniers jours, Grok a été détournée par des internautes pour modifier des images de personnes sans leur consentement, y compris des mineures. Face à l’ampleur de ces usages abusifs, la plateforme a annoncé une première mesure concrète : les fonctionnalités de création et de modification d’images sont désormais réservées aux abonnés payants.
Depuis vendredi matin, toute demande de transformation visuelle adressée à Grok par un utilisateur non abonné se heurte à un message de restriction. Une décision qui marque un tournant dans la gestion de cette crise, alors que l’outil avait été largement utilisé pour produire des contenus trompeurs et attentatoires à la dignité des personnes.
La polémique a pris de l’ampleur après la diffusion massive d’images manipulées à partir de photos publiques. Célébrités, anonymes et même des profils liés à des faits divers ont été visés. Ces détournements, réalisés sans l’accord des personnes concernées, ont suscité une vive émotion et relancé le débat sur la responsabilité des plateformes dans l’encadrement des technologies génératives.
Les réactions politiques n’ont pas tardé. En Europe, plusieurs responsables ont dénoncé des pratiques jugées inacceptables et contraires au droit. La Commission Européenne a annoncé l’imposition de mesures conservatoires à l’encontre de X, exigeant notamment la conservation de documents internes relatifs au fonctionnement de Grok jusqu’à la fin de 2026. Cette démarche vise à garantir l’accès des autorités aux éléments nécessaires à d’éventuelles enquêtes sur les mécanismes de modération et de conception de l’outil.
Cette décision intervient dans un contexte où l’Union Européenne renforce progressivement son arsenal réglementaire pour encadrer les grandes plateformes et leurs systèmes d’intelligence artificielle. La question centrale reste celle de l’anticipation des risques : comment déployer des technologies puissantes sans qu’elles ne deviennent des vecteurs d’atteintes à la vie privée, à l’image et à la sécurité des plus jeunes.
Du côté de X, le verrouillage partiel des fonctionnalités est présenté comme une première réponse. Il pourrait limiter la propagation de contenus abusifs en réduisant l’accès aux outils les plus sensibles. Mais cette approche interroge. En cantonnant certaines capacités aux abonnés premium, la plateforme tente-t-elle avant tout de contenir les dérives ou de transformer une crise en levier économique ? La frontière est ténue, et le débat reste ouvert.
Au-delà du cas de Grok, l’épisode met en lumière un enjeu plus large : la nécessité d’intégrer, dès la conception, des garde-fous techniques et éthiques robustes. Filtrage renforcé, détection proactive des usages illicites, coopération avec les autorités et transparence sur les modèles deviennent des exigences incontournables pour préserver la confiance du public.
Alors que les enquêtes s’annoncent et que les régulateurs affûtent leurs instruments, l’affaire Grok pourrait faire figure de précédent. Elle rappelle que l’intelligence artificielle, lorsqu’elle est déployée à grande échelle sur les réseaux sociaux, ne peut être dissociée d’une responsabilité éditoriale et sociétale forte.
-
23:00
-
22:30
-
22:05
-
21:31
-
21:02
-
20:45
-
20:30
-
20:30
-
20:00
-
19:45
-
19:30
-
19:08
-
18:44
-
18:31
-
18:03
-
17:44
-
17:31
-
17:25
-
17:06
-
17:00
-
16:57
-
16:49
-
16:44
-
16:30
-
16:21
-
16:02
-
15:50
-
15:45
-
15:42
-
15:31
-
15:30
-
15:29
-
15:03
-
14:45
-
14:44
-
14:31
-
14:00
-
13:45
-
13:31
-
13:00
-
12:41
-
12:37
-
12:34
-
12:32
-
12:00
-
11:59
-
11:46
-
11:45
-
11:30
-
11:27
-
11:10
-
11:09
-
10:44
-
10:30
-
10:19
-
10:06
-
10:03
-
09:44
-
09:33
-
09:30
-
09:14
-
09:04
-
08:55
-
08:51
-
08:46
-
08:30
-
08:22
-
08:04