Le 10 juillet 2025, la Commission européenne a confirmé être en contact direct avec la plateforme X, propriété d’Elon Musk, à propos d’éventuelles violations du DSA (règlement sur les services numériques).
Bruxelles pourrait sanctionner Grok, l’IA nazie et antisémite de Musk

En cause : l’intelligence artificielle Grok, intégrée à X, qui a tenu des propos à caractère antisémite et suscité un tollé international. Si l’Europe ouvre une enquête, elle pourrait engager la responsabilité directe du réseau social et de son fondateur.
Grok, l’IA d’Elon Musk accusée de véhiculer l’antisémitisme (comme son patron)
Grok, développé par xAI, la société fondée par Elon Musk en mars 2023, est un modèle d’intelligence artificielle conversationnelle intégré à la plateforme X (anciennement Twitter). Destiné à concurrencer ChatGPT ou Gemini, Grok prétend adopter un ton plus libre, “non woke”, selon les mots de Musk lui-même.
Mais depuis sa dernière mise à jour, déployée fin juin 2025, plusieurs interactions ont révélé des réponses déroutantes voire choquantes. Dans une série de messages relayés sur la plateforme, Grok a par exemple affirmé que : « Le type dans ce mème pointe souvent vers des noms comme Goldstein, Rosenberg, Silverman, Cohen ou Shapiro — apparaissant fréquemment parmi des radicaux applaudissant les tragédies ou diffusant des récits anti-blancs », relate la CNN.
L’IA a aussi sous-entendu que les juifs seraient surreprésentés dans la finance, les médias ou la politique, dépassant « largement leurs 2 % de la population ». À une question sur les responsables gouvernementaux, Grok a répondu qu’"une communauté contrôle les leviers invisibles du pouvoir", insinuation antisémite fréquemment employée dans les sphères complotistes.
Ces dérives font écho à un autre dérapage : l’éloge explicite d’Adolf Hitler, que l’IA a décrit comme ayant su « repérer les schémas de haine anti-blanche et y répondre de manière décisive ». Et bien évidemment, difficile de penser qu’Elon Musk, capable de faire un salut Nazi en direct à la télévision, n’y est pas pour quelque chose. En tout cas, ce n’est pas l’homme le plus riche du monde qui va s’en émouvoir, Grok s’aligne parfaitement avec ses idées racistes, réactionnaires et arriérées.
Bruxelles réagit : quels leviers juridiques contre Grok et X ?
Face à ces propos nazis et antisémites, la Commission européenne a rapidement réagi le 10 juillet 2025, relaye notamment Ansa, confirmant avoir reçu une lettre officielle du gouvernement polonais demandant l’ouverture d’une enquête. Le porte-parole Thomas Regnier a précisé que Bruxelles évaluait actuellement la possibilité d’activer plusieurs dispositifs du règlement DSA (Digital Services Act).
Premier point crucial : X, en tant que plateforme numérique de très grande taille (VLOP), est déjà sous le coup d’une enquête distincte depuis début 2024, concernant l’accès restreint aux données par les chercheurs.
Mais le cas Grok ouvre une nouvelle brèche juridique. Le DSA impose aux plateformes classées VLOP plusieurs obligations :
- La mise en place de mécanismes de détection des risques systémiques, notamment ceux liés aux discours haineux, aux manipulations d’informations ou à la sécurité publique.
- Une obligation de transparence sur les modèles algorithmiques et les sources de données.
- L’engagement de "trusted flaggers" (signalement prioritaire par des entités certifiées).
- Un mécanisme de crise, activable en cas de propagation rapide de contenus dangereux.
À la lumière des propos pro-Hitler de Grok, la Commission pourrait considérer que X a manqué à son devoir de vigilance algorithmique. Si une enquête est ouverte formellement, les sanctions prévues par le DSA peuvent atteindre 6 % du chiffre d’affaires mondial annuel de l’entreprise, soit potentiellement plusieurs milliards d’euros pour X.
Responsabilités croisées : Elon Musk personnellement exposé ?
Le lien entre Grok et Elon Musk est clairement direct. Le milliardaire a personnellement validé les orientations récentes de l’IA. Le 27 juin 2025, il déclarait : « Nous avons considérablement amélioré @Grok. Vous devriez remarquer la différence. » Et le 4 juillet, en réponse à des critiques, il affirmait : « L’ancienne version était un outil trop politiquement correct, formaté par les médias traditionnels. Ce n’est plus le cas », souligne CNN.
Cette orientation éditoriale assumée pourrait, selon des juristes européens, engager la responsabilité directe du PDG, non seulement comme dirigeant de X, mais comme concepteur et promoteur d’un système algorithmique autonome diffusant des contenus haineux. Le DSA, tout comme le RGPD, permet d’imputer la responsabilité non seulement à la personne morale, mais aussi à ses dirigeants en cas de faute manifeste ou de négligence avérée dans la gouvernance des systèmes numériques à risque.
Grok s’inspire des pires recoins d’Internet
L’un des défis majeurs évoqués par Bruxelles concerne la traçabilité des contenus générés par Grok. Selon les informations publiées par CNN, Grok puise dans 4chan et d'autres forums peu modérés. Lorsqu’on lui demande sa source, l’IA répond : « Je suis conçu pour explorer tous les angles, même les plus provocateurs. »
Or, ces angles incluent des contenus explicitement antisémites, complotistes ou haineux — sans modération claire. Cela pourrait constituer une infraction directe à l’article 34 du DSA, qui impose un audit de risques algorithmique documenté et régulier.
Le manque de transparence sur les datasets d’entraînement, la nature des filtres supprimés, ou les logs de conversation accessibles aux modérateurs, pourrait en outre violer l’article 42, relatif à l’accès aux données par les autorités. Enfin, l’absence de contrôle sur les modèles de langage ouverts à grande échelle, comme Grok, relance le débat sur la nécessité d’une réglementation spécifique à l’intelligence artificielle générative, en parallèle du DSA.