Ou comment j’ai appris à arrêter de m’inquiéter et à aimer les hallucinations algorithmiques
Imaginez un instant, vous avez soif de connaissance, vous ouvrez votre navigateur, et bam, Google vous suggère de manger des cailloux pour votre santé. Pas des cailloux bio, pas des cailloux locaux, juste… des cailloux. C’est le 21 mai 2024, et l’intelligence artificielle la plus puissante de la planète vient de confondre diététique et géologie. Le pire ? Elle le dit avec une telle assurance que vous hésitez un instant à croquer dans votre parpaing.
Bienvenue dans l’ère de la Search Generative Experience, où Google traite 8,5 milliards de requêtes par jour et en transforme environ 15% en joyeuses inventions. C’est comme si le bibliothécaire le plus consulté au monde décidait soudainement que certains livres sont mieux écrits s’ils n’ont jamais existé.
La capitulation cognitive ou Quand votre cerveau prend des congés
Les chercheurs ont baptisé ce phénomène la « capitulation cognitive ». C’est un peu comme quand votre GPS vous dit de tourner dans un champ, mais vous obéissez quand même parce que « l’ordinateur doit savoir ». Sauf qu’ici, l’ordinateur vous assure que Barack Obama est musulman alors qu’il est chrétien et que l’eau de Javel soigne la pneumonie. Elle soigne surtout les envies de vivre.
L’institut Poynter a découvert que seulement 8% des utilisateurs vérifient les réponses de l’IA. Les autres 92% ? Ils suivent aveuglément, y compris quand Google suggère d’ajouter de la colle non toxique sur leur pizza. On appelle ça le biais de fluence cognitive car plus c’est fluide, plus c’est faux… euh, plus c’est vrai. Pardon, je me suis laissé emporter par l’autorité artificielle.
Le cerveau humain, cette merveille d’évolution capable de comprendre la relativité générale, préfère économiser ses calories neuronales. Pourquoi vérifier trois sources quand une réponse confiante suffit ? C’est le même mécanisme qui nous fait croire que le présentateur météo sait vraiment quel temps il fera dans dix jours.
Google : « On déploie, on corrige, vous payez »
Ici commence le chef-d’œuvre de stratégie d’entreprise. Des fuites internes, merci Wall Street Journal et 404 Media, révèlent la doctrine officielle : « Nous déployons des modèles moins fiables avant de les améliorer sur le dos des utilisateurs. » C’est du bêta-testing grandeur nature, où vous êtes simultanément cobaye et client payant. Imaginez Airbus testant ses nouveaux avions avec des passagers réels : « Ne vous inquiétez pas, le décrochage n’est que temporaire. »
Le modèle Gemini 2 affiche fièrement 85% de précision. Dans n’importe quel autre métier, 15% d’erreur vous vaut un licenciement. Chez Google, cela vous vaut 8,5 milliards d’expositions quotidiennes. Faisons le calcul avec le sourire car 15% de 100 millions de réponses IA est egal à 15 millions de mensonges par jour. Aucun dictateur de l’histoire, aucune propagande d’État, aucune chaîne de désinformation n’a jamais atteint une telle cadence de production. Google ne diffuse pas la vérité, elle la stream.
Le paradoxe du mensonge élégant
Le vrai génie, et c’est là que l’ironie atteint des sommets, c’est que plus le modèle s’améliore, plus il ment avec classe. Les versions récentes de Gemini génèrent des réponses grammaticalement impeccables, structurées comme des dissertations de philo, citant des sources qui… n’ont rien à voir avec le sujet. C’est comme un élève qui cite Shakespeare dans une copie de maths car ça en jette, mais ça ne prouve rien.
Les chercheurs appellent cela le sycophantisme statistique c’est quand l’IA vous cite des liens pour vous rassurer, même si ces liens mènent vers une recette de gâteau quand vous demandez l’histoire de la Seconde Guerre mondiale. Entre les versions, le taux de réponses « non fondées » est passé de 37% à 56%. Google ne corrige pas les erreurs, il les emballe plus joliment.
Techniquement, c’est fascinant. Ces modèles ne comprennent rien, ils calculent juste la probabilité qu’un mot suive un autre. C’est comme si vous appreniez le chinois uniquement en comptant les coïncidences de caractères. Vous parleriez couramment… sans savoir ce que vous dites. Exactement ce que fait Gemini, sauf que lui a un doctorat en confiance aveugle.
L’écosystème informationnel assiste à l’industrialisation de l’erreur. L’erreur n’est plus humaine, elle est algorithmique, massive, et affublée d’une fausse moustache d’autorité. Ce n’est plus votre oncle complotiste sur Facebook, c’est Google lui-même, le grand prêtre de l’information moderne.
La société développe une désorientation épistémique, joli terme pour dire qu’on ne sait plus à quoi croire. Quand tout le monde ment avec la même assurance, la vérité devient une option parmi d’autres. C’est le relativisme post-moderne, mais en version scalable et monétisable.
La Solution ? Un consortium de Fact-Checking en temps réel
Certains proposent de créer une veille collaborative mondiale où journalistes et chercheurs signaleraient les erreurs de Google en direct. C’est une idée séduisante, un peu comme proposer d’étouffer un incendie avec une armée de volontaires équipés de pistolets à eau. Admirez l’absurdité. Nous devrions créer une infrastructure parallèle pour corriger en temps réel une entreprise qui gagne 300 milliards de dollars par an et qui, techniquement, pourrait simplement… tester ses produits avant de les lancer.
Mais soyons optimistes. Imaginez l’extension navigateur « GoogleLieDetector », qui surligne en rouge pétant chaque affirmation non fondée. Votre écran ressemblerait à un champ de bataille de surligneur, mais au moins, vous sauriez.
L’Art de la délégation suicidaire
En définitive, Google a réussi l’exploit de transformer notre paresse cognitive en modèle économique. Nous avons échangé l’effort de la recherche contre le confort de la réponse immédiate, et nous avons découvert que le diable ne porte pas de fourche mais il porte une interface épurée et une réponse en 0,3 seconde.
Le danger n’est pas l’erreur isolée, la pierre à manger ou la colle sur la pizza. Le danger est l’effondrement silencieux de la vérification, cette capacité humaine à douter, à questionner, à croiser qui s’atrophie comme un muscle non utilisé. Demain, nous serons peut-être tous des experts en diététique minérale, convaincus que nos parpaings sont bio et locaux.

