Les hallucinations de l'IA -Quand les bots inventent

Les hallucinations de l'IA -Quand les bots inventent

Imaginez la scène, vous êtes tranquillement en train de coder avec Cursor, quand tout à coup, un message d’un bot d’assistance technique vous annonce, avec la froideur d’un contrôleur fiscal, que vous n’avez plus le droit de l'utiliser sur plusieurs ordinateurs. Votre vie de nomade digital, alternant entre votre ordinateur de bureau et votre PC portable s’effondre. Vous pestez, vous râlez, vous postez des messages furieux sur Reddit, jusqu’à ce que la vérité éclate, ce n’était qu’une hallucination de l’IA. Oui, mes amis, bienvenue dans le monde merveilleux où les bots inventent des règles qui n’existent pas !

Cette histoire s'est réellement passée le mois dernier et a semé la panique chez quelques utilisateurs. Résultat, une révolte en ligne avec des clients qui ont crié au scandale, certains ayant même claqué la porte en résiliant leur abonnement. Michael Truell, le PDG de Cursor, a dû monter au créneau sur Reddit pour calmer le jeu: “Mais non, voyons, il n’y a jamais eu une telle règle ! Utilisez Cursor où vous voulez, c’est open bar !” Le coupable ? Un bot qui a eu un petit moment d’égarement, ou plutôt une hallucination, comme disent les experts. Parce que oui, les IA, ces merveilles technologiques censées nous simplifier la vie, ont parfois des crises d’imagination dignes d’un scénariste sous caféine.

PSA: Cursor's Online Access Has Been Fully Disabled
by u/BrokenToasterOven in cursor

Vous pensiez qu'elles étaient des encyclopédies ambulantes, toujours fiables, toujours précises ? Détrompez-vous. Deux ans après l’arrivée de ChatGPT, elles sont partout: dans les bureaux, dans nos smartphones, et même dans les conversations avec votre tante qui veut une recette de tarte aux pommes. Mais il y a un hic, elles n’ont aucune idée de ce qui est vrai ou faux. Elles fonctionnent à la probabilité mathématique, un peu comme si elles jouaient à “Qui veut gagner des millions” sans jamais vérifier les réponses. Et le pire, c’est que les nouvelles IA, ces systèmes dits “de raisonnement” développés par des géants comme OpenAI, Google ou la start-up chinoise DeepSeek, sont encore plus créatives, dans le mauvais sens. Alors qu’elles brillent en maths (bravo, elles savent résoudre des équations !), elles patinent sur les faits. Selon des tests, certaines d'entre elles récentes inventent des réponses fausses jusqu’à 79 % du temps. Oui, vous avez bien lu, 79 % ! C’est comme demander à votre GPS de vous emmener à Paris et vous retrouver à Pétaouchnok.

Les IA modernes sont construites sur des systèmes mathématiques complexes qui analysent des montagnes de données. Mais elles ne “pensent” pas comme nous. Elles devinent, elles extrapolent, et parfois, elles brodent. Ce phénomène, que les chercheurs appellent “hallucination”, est un peu comme si votre IA décidait d’écrire un roman de science-fiction au lieu de répondre à votre question. Vous demandez combien de foyers vivent dans votre département ? Elle vous sort un chiffre au hasard, avec une source bidon pour faire sérieux. Pas très rassurant, non ? Surtout quand on utilise ces outils pour des tâches sensibles, comme des documents juridiques ou des données médicales. Imaginez un bot qui invente une posologie pour un médicament…

Pendant un temps, les entreprises comme OpenAI ont réussi à réduire ces délires. Mais avec l’arrivée des nouveaux systèmes de raisonnement, les erreurs repartent à la hausse. Par exemple, le dernier joujou d’OpenAI, appelé o3, hallucine 33 % du temps sur des questions simples, comme des infos sur des personnalités publiques. Son petit frère, o4-mini, fait encore pire avec un score de 48 %. Et sur des questions plus générales, o3 grimpe à 51 %, tandis qu’o4-mini atteint des sommets à 79 %. À ce rythme, on se demande si ces IA ne devraient pas postuler pour écrire des scénarios à Hollywood.

Les experts, d'ailleurs, pataugent un peu. Les IA apprennent à partir de données si massives qu’il est presque impossible de comprendre pourquoi elles déraillent. Ajoutez à cela une nouvelle méthode d’entraînement, le “reinforcement learning”, qui leur permet d’apprendre par essai-erreur. Résultat, elles excellent dans certains domaines, comme programmer ou résoudre des équations, mais elles oublient les bases, comme vérifier leurs sources. Les chercheurs s’arrachent les cheveux pour trouver des solutions. Certains tentent de retracer leur comportement jusqu’aux données sur lesquelles elles ont été entraînées. Mais c’est comme chercher une aiguille dans une botte de foin. D’autres les testent sur des tâches simples, comme résumer des articles de presse. Même là, les bots inventent des détails 3 à 27 % du temps. Pas terrible pour des outils censés nous faire gagner du temps. En attendant, nous devons jouer les détectives, vérifier chaque réponse, et croiser les doigts pour que notre IA n’ait pas décidé d’inventer une nouvelle règle farfelue, comme interdire Cursor sur plusieurs ordinateurs. Alors, la prochaine fois que votre IA vous sort une info bizarre, riez un bon coup et dites-vous que, même dans le futur high-tech, l’erreur est humaine… ou plutôt, artificielle.

Read more