Qu’est-ce que Grok ?
Grok est un chatbot d’intelligence artificielle générative lancé par xAI en novembre 2023. Conçu comme une alternative à ChatGPT, il est intégré à la plateforme X, Grok est accessible aux utilisateurs pour répondre à diverses requêtes, allant de questions techniques à des sujets d’actualité
L’idée affichée était de proposer aux utilisateurs une IA conversationnelle capable de répondre à (presque) toutes les questions avec humour et « recherche de vérité maximale ».
En théorie, cette intelligence artificielle devait améliorer l’expérience en apportant des informations factuelles en temps réel et en assistant les utilisateurs au quotidien.
Pourtant, mon opinion personnelle – peut-être biaisée par ma propre désillusion vis-à-vis de l’évolution de X ces dernières années (baisse de qualité du contenu, polarisation accrue et perte de confiance) – est que cette intégration de Grok banalise un usage de l’IA sans faire appel à son esprit critique, pour la moindre raison avec un risque de polarisation encore plus accrue.
Dérives concrètes : Grok déraille en pratique
Depuis son déploiement, Grok a multiplié les réponses problématiques qui illustrent ses dérives. Voici quelques exemples concrets des défaillances de cette IA intégrée à X :
- Fake news à partir d’une plaisanterie : Grok a mal interprété des blagues sur le joueur NBA Klay Thompson et a généré un faux article affirmant qu’il avait lancé des briques sur des maisons, montant ainsi une pure fiction au rang de sujet tendance sur X.
- Biais complotistes hors de propos : Dans plusieurs cas, Grok a injecté sans raison apparente des références à des théories conspirationnistes, comme celle du « génocide blanc » en Afrique du Sud, y compris dans des discussions n’ayant aucun rapport.
- Remise en cause de faits historiques : L’IA a mis en doute publiquement le nombre de victimes de la Shoah, allant jusqu’à parler de « débat académique » et de « manipulation politique », reprenant un argumentaire révisionniste.
Ce type de dérive n’est pas propre à Grok, toute IA selon comment elle est conçue et les limites qu’on lui donne peut halluciner et dériver, mais je pense que son entrainement « temps réel » sur les contenus tendances de X tend à augmenter ce phénomène.
Fact-checking automatisé : la promesse trompeuse
Grok donne une illusion de fiabilité, illusion renforcée par l’usage croissant d’interpellations directes dans les threads comme « Grok, est-ce vrai ? » ou « peux-tu confirmer cela ? ».
Cette formule devient presque une mécanique réflexe pour valider des informations à la volée, renforçant l’idée que Grok pourrait servir de juge de vérité, alors qu’il s’agit d’un modèle statistique, non d’un expert neutre.
Mais une IA générative comme Grok prédit, bien plus qu’elle ne vérifie, se basant en plus sur des données non fiabilisées.
Des erreurs flagrantes ont déjà été identifiées, notamment pendant les périodes électorales. Grok peut générer des réponses convaincantes mais entièrement fausses, ce qui la rend plus dangereuse encore qu’un utilisateur mal informé.
Grok, un amplificateur à grande échelle de la désinformation ?
Plusieurs facteurs font de Grok un risque systémique pour la qualité de l’information sur X :
- Entraînement biaisé sur des données issues de X lui-même.
- Manque de transparence sur le fonctionnement du modèle.
- Tonalité persuasive, même en cas d’erreur.
En réalité, Grok peut donner du poids à des affirmations sans fondement en leur conférant une autorité artificielle. C’est un amplificateur de confusion dans un espace déjà fragile.
Conclusion
L’idée de déployer une IA dans un réseau social n’est pas un problème en soi. Tout dépend de l’IA et de l’usage que l’on en fait.
Mais dans le contexte de X, avec une IA comme Grok, mal formée, mal encadrée et survalorisée, on est loin d’une véritable innovation utile.
Selon moi, Grok ne vérifie pas les faits, il les prédit en miroir d’un environnement biaisé. Sur une plateforme déjà abîmée par la polarisation et la défiance, voilà une fonctionnalité que l’on confondra à tort avec du progrès.
Quoiqu’il en soit, ce phénomène m’interroge profondément sur le rôle que peuvent jouer les IA dans la diffusion d’informations sur les réseaux sociaux. Lorsqu’un outil de ce type est utilisé à tort comme arbitre de la vérité, il peut devenir un puissant levier de désinformation, sous couvert d’objectivité algorithmique.