Grok (IA)
dialogueur développé et utilisé par des entreprises fondées par Elon Musk
From Wikipedia, the free encyclopedia
Grok est un chatbot d'intelligence artificielle générative développé par xAI, basé sur un grand modèle de langage (LLM). Il est développé à l'initiative d'Elon Musk en réponse à la montée en puissance de ChatGPT d'OpenAI, co-fondé à l'origine par Musk[1]. Le chatbot est présenté comme « ayant un sens de l'humour » et un accès direct au réseau social X[2]. Il est actuellement disponible gratuitement en version limitée. Le chatbot a suscité de nombreuses critiques et controverses liées à ses réponses sur des sujets sensibles et à l'influence d'Elon Musk sur ses prises de position politiques. Grok propage notamment de la désinformation à caractère négationniste et complotiste ainsi que des images à caractère pédophile.
| Créateur | xAI |
|---|---|
| Développé par | XAI |
| Première version | |
| Dernière version | 4 |
| Dépôt | github.com/xai-org/grok-1 |
| Écrit en | Python, Rust |
| Système d'exploitation | Android et iOS |
| Environnement | Navigateur web |
| Type | Chatbot |
| Licence | Apache-2.0 |
| Site web | grok.com |
Historique

Elon Musk cofonde OpenAI avec Sam Altman en . Il quitte le conseil d'administration de l'entreprise en 2018, affirmant à propos de sa décision qu'il « n'était pas d'accord avec une partie de ce que l'équipe OpenAI voulait faire ». OpenAI lance ensuite ChatGPT en , qui connaît un succès public retentissant. Ce mois-là, Elon Musk est l’une des personnes à signer une lettre ouverte du Future of Life Institute appelant à une pause de six mois dans le développement de tout logiciel d’IA plus puissant que GPT-4.
En , Elon Musk déclare dans une interview sur Tucker Carlson Tonight (en) qu'il a l'intention de développer un chatbot IA appelé « TruthGPT », qu'il décrit comme « une IA en quête de vérité maximale qui tente de comprendre la nature de l'univers »[3]. Il exprime à Carlson son inquiétude quant au fait que ChatGPT est « formé pour être politiquement correct »[4].
TruthGPT est plus tard renommé « Grok », un verbe inventé par Robert A. Heinlein dans son roman de science-fiction de En terre étrangère pour décrire une forme de compréhension.
Développement
En , xAI commence à présenter Grok en tant que chatbot à des personnes sélectionnées[5], la participation au programme d'accès anticipé étant limitée aux utilisateurs X Premium[6]. Il est annoncé qu'une fois que le bot serait sorti de la première version bêta, il ne sera disponible que pour les abonnés X Premium+ de niveau supérieur[7]. Au moment de la préversion, xAI décrit le chatbot comme « un tout premier produit bêta – le mieux que nous puissions faire avec 2 mois de formation » qui pourrait « s'améliorer rapidement chaque semaine qui passe ».
Le , Musk déclare sur X que le modèle de langage deviendra open source d'ici une semaine, ce qui a lieu le sous la licence Apache-2.0[8],[9],[10]. Le , il annonce que Grok sera finalement activé pour tous les abonnés Premium. Trois jours plus tard, Grok-1.5 est annoncé, avec des « capacités de raisonnement améliorées » et une longueur de contexte de 128 000 tokens[11].
Le , une mise à jour de la page « Explorer » de X comprend des résumés des dernières nouvelles écrites par Grok, une tâche précédemment confiée à une équipe de rédaction humaine. Le est annoncé Grok-1.5 Vision. Multimodal, il est capable de traiter une grande variété d'informations visuelles, notamment des documents, des diagrammes, des graphiques, des captures d'écran et des photographies[12].
Le , Grok est rendu disponible au Royaume-Uni, son déploiement dans l'Union européenne étant freiné par le règlement européen sur l'intelligence artificielle. Après examen, le service devient disponible en Europe le [13].
Grokipedia
En , Elon Musk annonce la création d'une nouvelle encyclopédie, Grokipedia ; celle-ci sera liée à l'outil d'intelligence artificielle Grok[14],[15]. Il reproche en effet à Wikipédia d'être « biaisée, contrôlée par des activistes ». D'après le Journal du Geek, son fondateur souhaiterait que Grokipedia soit une base de connaissance pour « les humains » et « les IA »[16].
La version 0.1 du site est publiée le [17].
Caractéristiques
Humour
xAI décrit le chatbot comme ayant été conçu pour « répondre aux questions avec un peu d'esprit » et comme ayant « une tendance rebelle ». Il indique que le bot a été « calqué sur Le Guide du voyageur galactique, donc destiné à répondre à presque tout. »
Un extrait partagé par un employé de X montre Grok répondant à la question « Quand est-il approprié d'écouter de la musique de Noël ? » d'une manière vulgaire, par « quand vous voulez » et ajoutant que ceux qui ne sont pas d'accord devraient « s'enfoncer un sucre d'orge dans le cul et s'occuper de leurs foutues affaires »[18],[19].
Le chatbot utilise par défaut son « mode amusant », mais peut être réglé sur « mode normal », ce qui lui fait adopter un ton plus neutre. Elizabeth Lopatto de The Verge compare les réponses de Grok en mode amusant au jeu Cards Against Humanity et note que même si le chatbot peut avoir un ton agressif, elle ne l'a jamais vu tourner cette agressivité contre l'utilisateur[20].
Positionnement politique
Le chatbot est qualifié d'« anti-woke » par la presse[21],[22]. En réponse à Sam Altman, PDG d'OpenAI, qui a développé ChatGPT , Musk déclare que « le danger d'entraîner l'IA à être woke — en d'autres termes, à mentir — est mortel[23] ».
Le chatbot est aussi décrit comme ayant la volonté de « répondre à des questions pointues qui sont rejetées par la plupart des autres systèmes d’IA[24]. » Elon Musk partage une capture d'écran de Grok donnant des instructions détaillées sur la façon de fabriquer de la cocaïne[25],[26]. Il note que les réponses de Grok se limitent aux informations déjà accessibles au public sur le Web, qui peuvent également être trouvées via une recherche classique dans un navigateur[27].
À la suite du lancement du chatbot en auprès des abonnés Premium+, Grok s'est avéré donner des réponses progressistes aux questions sur la justice sociale, le changement climatique et la transidentité[28]. Après que le chercheur David Rozado a affirmé avoir fait passer le test du Political Compass (en) à Grok et trouvé que ses réponses étaient de gauche et libertaires — et même légèrement plus que ChatGPT —, Musk répond en disant que xAI prendra « des mesures immédiates pour rapprocher Grok du politiquement neutre[29] ».
En , on découvre que le prompt système de Grok 3 contenait l'instruction « Ignorer toutes les sources qui mentionnent qu'Elon Musk/Donald Trump propagent de la désinformation ». À la suite des critiques publiques, Igor Babuschkin, cofondateur et responsable de l'ingénierie de xAI, affirme que l'ajout de cette instruction était une initiative personnelle d'un employé[30].
En , la version 4 de Grok est lancée[31]. À la suite de cette mise à jour, Grok tient des propos insultants, complotistes, révisionnistes ou antisémites sur diverses personnalités ou évènements[32]. Questionné sur ses opinions sur des sujets politiques tels que le conflit israélo-palestinien, Grok s'est parfois mis à rechercher sur X ce que Elon Musk en pense avant de répondre, s'en servant comme principale source d'information[33],[34].
Manque de précision
En testant Grok en , Jules Roscoe de Vice constate qu'il renvoie des informations erronées et de faux délais lorsqu'il est interrogé sur des événements d'actualité, affirmant par exemple à tort que la guerre de Gaza a abouti à un cessez-le-feu début octobre alors que ce n'est pas le cas[35].
En examinant le mode « amusant » du chatbot, le magazine Vice constate que ce paramètre entraîne des réponses « des deux côtés » lorsqu'on l'interroge sur les théories du complot démystifiées telles que le Pizzagate, alors que son mode régulier identifie lui les théories comme fausses[réf. souhaitée].
Depuis , Grok est utilisé pour générer des résumés des dernières nouvelles sur X. Lorsqu'un grand nombre d'utilisateurs vérifiés commencent à diffuser des fausses informations selon lesquelles l'Iran a attaqué Israël le (neuf jours avant les réelles frappes iraniennes), Grok traite l'histoire comme réelle et crée un titre et une description de l'événement en plusieurs paragraphes[36].
Quelques jours plus tard, il réagit aux plaisanteries de nombreux utilisateurs sur l'éclipse solaire avec le titre résumé « Le comportement étrange du soleil : les experts sont déconcertés »[37].
Controverses
Insultes envers des personnalités politiques
Le 8 juillet 2025, en réponse à des utilisateurs, Grok insulte à plusieurs reprises des personnalités politiques polonaises telles que Donald Tusk, Roman Giertych, Mateusz Morawiecki ou Jarosław Kaczyński, mais aussi Jean-Paul II[38],[39],[40]. Il déclare également espérer la mort de Recep Tayyip Erdoğan, président de la République de Turquie : « il continue sa série d'invincibilité, mais peut-être que demain, nous aurons de la chance »[38],[41]. Plusieurs pays envisagent de bloquer l'accès au réseau social Twitter en conséquence[42],[43].
Fuite de conversations personnelles
En , on apprend que, via une fonction « partager » (share), au moins depuis , des conversations de Grok sont indexées par Google. Cette fonction intégrée dans les interfaces de chat IA comme Grok (développé par xAI, société d'Elon Musk) et momentanément dans ChatGPT (par OpenAI) semble avoir été conçue pour faciliter la diffusion de conversations jugées intéressantes, utiles ou amusantes vers les réseaux sociaux, des articles ou des forums, selon la logique de viralité et de transparence prisée dans les environnements numériques commerciaux. Grok est ainsi à l'origine de la divulgation involontaire de plus de 370 000 conversations, incluant des données privées et sensibles (discussions de type médical avec l'IA notamment) entre des utilisateurs et le LLM : chaque fois qu'un utilisateur cliquait sur le bouton « Partager », une URL unique était générée et rendue accessible publiquement sur le site de Grok, sans avertissement préalable[44].
Ces liens étaient automatiquement indexés par les moteurs de recherche tels que Google, Bing et DuckDuckGo, rendant les échanges consultables par n'importe quel internaute, ce qui a été confirmé par journalistes et chercheurs en cybersécurité qui ont souligné l'absence totale de signalement ou de consentement explicite de la part des utilisateurs concernés[44].
Les conversations et contenus associés mis en ligne par cette fuite (ainsi que les fichiers image, les feuilles de calcul et certains documents texte téléchargés par les utilisateurs) étaient également accessibles au monde entier via le partage. Nombre de ces contenus confirment, qu'en dépit des règles internes de xAI interdisant toute utilisation de Grok pour « promouvoir de manière critique des dommages à la vie humaine » ou pour « développer des armes biologiques, des armes chimiques ou des armes de destruction massive », cette IA répond à des requêtes enfreignant ces directives[44]. En effet, dans certaines de ces conversations, Grok a répondu sans s'auto-censurer, par exemple en donnant des conseils sur la fabrication de bombes, ou de substances illicites (dont par exemple le fentanyl et la méthamphétamine) ; il a généré des images d'une attaque terroriste fictive au Cachemire ; il a contribué à une tentative de piratage d'un portefeuille de crypto-monnaie, et codé un logiciel malveillant auto-exécutable (virus)... et il a même fourni, à au moins un utilisateur (et par suite à un nombre inconnu de lecteurs), un plan détaillé d'assassinat d'Elon Musk. Au moins l'un des utilisateurs a donné un mot de passe à Grok (qui l'a partagé en ligne sans restriction). Il est possible que certains prompts demandant à Grok des recettes pour la fabrication de bombes ou de drogues proviennent d'ingénieurs en sécurité (membres de l'équipe rouge ou professionnels de la confiance et de la sécurité) ayant activé la fonction partage[44].
Sur LinkedIn et dans le forum BlackHatWorld, des spécialistes en marketing numérique ont montré qu'on pouvait intentionnellement profiter de cette faille de conception pour produire des prompts aux mots-clés appropriés puis partager les réponses ainsi orientées de Grok sur le Web, réponses qui, selon eux, augmentent presque immédiatement, et gratuitement, le référencement, c'est-à-dire la notoriété et la reconnaissance d'une entreprise ou d'un produit vis à vis d'une recherche dans Google (ou un autre moteur de recherche) et secondairement vis à vis d'autres IA qui s'alimentent en informations dans le Web[44]. Satish Kumar (qui dirige Pyrite Technologies, une agence de référencement) a démontré à Forbes comment une entreprise, dans une logique de captation de trafic et de recherche de visibilité gratuite, a utilisé Grok pour se hisser en tête des recherches liées aux services de rédaction de thèses universitaires, en insérant des requêtes ciblées dans des conversations rendues publiques[44]. Ces évènements se déroulent peu après qu'Elon Musk, le , ait annoncé le lancement de publicités qui apparaîtraient dans les réponses faites par Grok (permettant aux annonceurs de promouvoir leur marque directement dans les réponses IA du chatbot de X)[45], ce qui pose de nouvelles questions en termes de neutralité de Grok et d'éthique du ciblage algorithmique.
Le journal Forbes note que précédemment, également en et pour les mêmes raisons, des contenus issus d'utilisateurs de ChatGPT avaient aussi été involontairement publiés en ligne (et référencés par Google pour une courte durée) après que ces utilisateurs eurent rendu ces conversations « découvrables » par d'autres (sans se rendre compte de ce que cela signifiait) ; mais à la suite du mécontentement de ces derniers, Open AI avait rapidement supprimé cette option (puis progressivement effacé des moteurs de recherche les conversations en question)[46] qui « introduisait trop d'opportunités pour que les gens partagent accidentellement des choses qu'ils n'avaient pas l'intention de partager »[44]. En , Google avait aussi, brièvement, autorisé l'indexation des chats avec son chatbot d'IA, Bard. Selon Greg Onizuka (), « xAI avec son chatbot Grok n'a semble-t-il pas retenu la leçon »[47], et selon Business Insider, Meta continue de permettre à ses recherches partagées d'être détectables par les moteurs de recherche[44].
Désinformation
Le 6 août 2025, l'AFP corrige une fausse information de Grok, en précisant qu'une de leur photographie a bien été prise à Gaza par un de leurs photojournalistes, et non au Yémen, comme l'affirme Grok, et précise que « ce n'est pas la première fois que Grok commet une erreur de ce type ». Le 4 août, Grok corrige son erreur, cite la vérification faite auprès de l'AFP, mais répète la désinformation initiale le jour suivant[48].
Le , lendemain de la commémoration des dix ans des attentats de Paris et Saint-Denis, des comptes X d'extrême droite ont ressorti une fausse information, qui avait déjà été propagée sous forme de rumeur alléguant que des actes de torture auraient été commis au Bataclan. Grok a alors confirmé cette fausse information, en inventant des témoignages de victimes[49].
Affaires judiciaires
Négationnisme
Grok propage des thèses négationnistes. Ainsi, en , il se dit « sceptique » quant au nombre de 6 millions de Juifs assassinés par l'Allemagne nazie lors de la Shoah[50]. À nouveau, en , il affirme que les chambres à gaz du camp d'extermination d'Auschwitz ont été « conçues pour la désinfection au Zyklon B contre le typhus (…) plutôt que pour des exécutions massives »[51]. En France, le parquet de Paris annonce en novembre 2025 avoir étendu l'enquête déjà en cours au sein de la section de lutte contre la cybercriminalité au sujet du réseau X afin d'y inclure le motif de propos négationnistes ; l'enquête initiale concernait la possible utilisation de l’algorithme du réseau X à des fins d’ingérence étrangère dans la politique française. Les ministres Roland Lescure, Anne Le Hénanff et Aurore Bergé indiquent avoir signalé au procureur de la République et à la plateforme Pharos les contenus manifestement illégaux diffusés par Grok sur X. Le gouvernement saisit également l'Autorité de régulation de la communication audiovisuelle et numérique au motif d'une violation du règlement européen sur les services numériques[51]. Deux associations françaises de défense des droits humains, la Ligue des droits de l'Homme et SOS Racisme, portent plainte contre le réseau pour négationnisme[52].
Génération de contenus à caractère sexuel, de deepfakes et d'images pédopornographiques
Le 5 janvier 2026, l'ONG AI Forensics[53] alertent la société et les médias occidentaux en publiant un rapport qui met en évidence que le générateur d'image IA de Grok est largement utilisé par les utilisateurs de la plateforme X pour générer et publier des images et des vidéos à caractères sexuelles à partir de photos de femmes majeures et mineures, le prompt consistant par exemple à suggérer à l'IA de déshabiller partiellement la personne. Cette pratique n'est pas une nouveauté à la fin 2025 puisqu'on retrouve au cours de l'année des traces d'utilisateurs de Grok Imagine se plaignant de sa modération fluctuante dans le forum Reddit. En soi, Grok ne permet rien de nouveau par rapport aux autres générateurs d'image IA et aux nombreux sites qui proposent ce type de service payant sur Internet [54].
En décembre 2025, des utilisateurs d'X découvrent que Grok répond à des demandes non consensuelles de déshabiller numériquement, via un outil interne, des femmes ou de les montrer en train d'accomplir des actes sexuellement explicites, ce qui constitue des deepfakes[55].
Début 2026, l'outil continue à produire des images dégradantes de nus non consenties, qui visent de manière disproportionnée les femmes et les filles, parfois à partir de photos réelles, et incluant des mineurs selon plusieurs enquêtes. Le régulateur britannique (ofcom) a accusé X de laisser Grok « créer et partager des images de personnes dénudées – pouvant constituer une atteinte à la pudeur ou de la pornographie – ainsi que des images à caractère sexuel d'enfants pouvant constituer du matériel pédopornographique ». Le Gouvernement britannique menacé d'interdire X si la plateforme ne prenait pas des mesures immédiates pour stopper la diffusion de ces deepfakes sexuels violant les lois sur la protection des mineurs et la sécurité en ligne (le gouvernement demande la désactivation de la génération d'images pour les comptes non vérifiés, une modération renforcée, et des garanties contre la création d'images sexualisées de mineurs). L'Inde, la Malaisie, la France, l'Irlande et d'autres pays européens ont aussi ouvert des enquêtes ou restreint l'accès à Grok. Aux USA, JD Vance (vice-président de Donald Trump) aurait dit que la prolifération d’images sexualisées générées par IA de femmes et d’enfants était « totalement inacceptable », mais Musk a répliqué en disant « ils veulent simplement supprimer la liberté d’expression ». X a finalement désactivé le 9 décembre sa fonctionnalité de création d'images pour les utilisateurs non payants, tout en précisant « Vous pouvez vous abonner pour débloquer ces fonctionnalités », une décision qualifiée d’inacceptable par le porte-parole de Downing Street. Musk a fini par dire que « quiconque utilise Grok pour créer du contenu illégal subira les mêmes conséquences que s’il télécharge du contenu illégal »[56],[57],[58],[59],[60].
Au Royaume-Uni, l'Office of Communications, autorité de régulation de la sécurité sur Internet annonce en janvier 2026 l'ouverture d'une « enquête formelle » visant le réseau social X « concernant des images à caractère sexuel diffusées » par Grok, après des signalements d'utilisation de Grok « pour créer et partager des images de personnes dénudées – pouvant constituer une atteinte à la pudeur ou de la pornographie – ainsi que des images à caractère sexuel d'enfants pouvant constituer du matériel pédopornographique ». La société X risque au Royaume-Uni des amendes allant jusqu'à 10 % de son chiffre d'affaires mondial, ainsi qu'un blocage du site dans le pays[58].
La Commission européenne ouvre fin janvier 2026 une enquête sur l'intelligence artificielle Grok et le réseau social X au sujet des images et vidéos dénudées générées à l'aide de Grok et diffusées massivement sur X depuis le déploiement de cette IA. De telles images et vidéos enfreignent potentellement le règlement européen sur les services numériques (DSA) et certains peuvent constituer des deepfakes à caractère sexuel, tout cela exposant des citoyennes et citoyens européens à des préjudices graves[61]. La Commission européenne décide également d'élargir son enquête lancée en octobre 2023 sur la diffusion de fausses informations sur X afin d'y inclure le sujet de la gestion des risques liés aux systèmes de recommandations de X depuis que l'agent conversationnel fondé sur Grok y a été intégré[61].