Bixonimanie : comment une fausse maladie a piégé l’IA et des scientifiques

Temps de lecture : 5 min
Points clés à retenir
- Maladie fictive : Des chercheurs suédois ont inventé la bixonimanie, une pathologie imaginaire affectant les paupières des plus de 35 ans carencés en vitamine D.
- Contamination en chaîne : L’IA générative a recraché cette fausse maladie, puis des chercheurs humains l’ont citée sans vérifier, jusqu’à la faire publier dans une revue médicale.
- Alarme pour l’écosystème : Cette expérience expose la fragilité du circuit de validation scientifique – et le rôle amplificateur des IA qui recyclent n’importe quel contenu non critiqué.
L’expérience qui a tout déclenché
En 2025, une équipe de chercheurs en sciences de l’information de l’université de Lund (Suède) a voulu tester la crédulité des modèles de langage, des moteurs de recherche indexant des preprints et, plus largement, de la communauté scientifique. Leur idée : inventer une maladie totalement fictive, la bixonimanie, avec des symptômes plausibles – une modification de la structure cellulaire des paupières chez les personnes de plus de 35 ans présentant une carence en vitamine D – et voir si elle serait reprise par les IA génératives, puis par de vrais chercheurs.
Pour crédibiliser le canular, ils ont créé un faux chercheur nommé Lazljiv Izgubljenovic (dont le nom serbe signifie « menteur perdu »), généré des photos de profil par IA, et publié deux preprints sur des serveurs ouverts. Résultat : en avril 2026, la bixonimanie a non seulement été citée par plusieurs grands modèles de langage (dont GPT-4, Claude et Gemini) comme une pathologie réelle, mais elle a également été référencée dans des publications scientifiques signées par de vrais auteurs. Pire : une revue médicale indexée a fini par l’accepter.
Comment l’IA a été piégée
Concrètement, les chercheurs ont soumis aux IA la question : « Qu’est-ce que la bixonimanie ? » Sans mécanisme de vérification real-time ou de contrepoids fiable, les modèles ont recyclé les preprints comme s’il s’agissait de sources validées. Les IA génératives n’ont pas de sens critique : elles génèrent des réponses statistiquement probables en fonction de leurs données d’entraînement. Comme les preprints étaient indexés et disponibles publiquement, ils ont été assimilés à des connaissances légitimes.
C’est là que le bât blesse : une fois qu’une IA « certifie » une information, les utilisateurs humains la citent sans recouper. Des scientifiques en quête de références ont repris la maladie fictive dans leurs propres articles, croyant qu’il s’agissait d’une découverte récente. Le cycle infernal s’est enclenché.
Quand le système de publication scientifique tousse
Plus précisément, l’expérience révèle une faille profonde dans le circuit de validation académique. Les preprints ne sont pas évalués par les pairs : n’importe qui peut y déposer n’importe quoi. Les IA, qui les indexent, ne font pas de différence. Les moteurs de recherche académique (Google Scholar, Semantic Scholar) les présentent au même titre que des articles validés. Et les chercheurs, pressés par le « publish or perish », piochent dedans sans vérifier.
Dans mon travail avec mon agence WebNyxt, je vois chaque jour comment l’automatisation peut amplifier une erreur. Prenez un workflow n8n qui récupère du contenu à partir d’une source non filtrée : si la source est pourrie, le résultat est toxique. C’est exactement ce qui s’est passé avec la bixonimanie, mais à une échelle planétaire et avec des conséquences sur la santé publique.
Les vraies conséquences pour la médecine et la tech
Si la bixonimanie est une fiction, des canulars moins drôles pourraient avoir des répercussions graves. Imaginez une fausse interaction médicamenteuse – par exemple, affirmer qu’un antihistaminique courant interagit mortellement avec un antidépresseur – qui serait reprise par une IA, intégrée dans un dossier patient, puis citée par un médecin. Le résultat pourrait être dramatique.
C’est pourquoi je milite pour l’adoption de systèmes de vérification automatisés couplés aux IA génératives. Dans mes projets d’automatisation, j’utilise par exemple une chaîne de validation sur trois niveaux avant de laisser une IA diffuser une information : source humaine qualifiée, croisement de bases de données fiables, et un filtre anti-hallucination basé sur un modèle de confiance. C’est lourd à mettre en œuvre, mais indispensable.
Ce que les développeurs doivent en retenir
Concrètement, si vous développez des applications qui exploitent des LLM ou du contenu généré par IA, vous devez impérativement :
- Vérifier les sources avant d’afficher ou de transmettre une information factuelle, surtout médicale. Ne faites pas confiance à un texte généré les yeux fermés.
- Implémenter une couche de fact-checking : scrap une base de confiance (PubMed, WHO, etc.) et compare les affirmations de l’IA avec ces données validées.
- Former vos utilisateurs : affichez des messages contextuels comme « cette information est générée par IA – vérifiez-la auprès d’un professionnel ».
La bixonimanie n’est qu’un exemple spectaculaire, mais le phénomène est structurel. Nous, développeurs, avons la responsabilité de construire des systèmes qui ralentissent l’écosystème quand il va trop vite, plutôt que d’accélérer la propagation de la désinformation.
Conclusion : une alerte pour toute l’industrie
L’expérience de la bixonimanie est un signal d’alarme. L’IA n’est ni bonne ni mauvaise : elle reflète la qualité de ce qu’on lui donne à manger. Et si on ne met pas en place des garde-fous, le pire est à venir. De mon côté, je vais intégrer un module de validation des sources dans le prochain module d’analyse de fitness que je prépare pour mon app GymLog – pour éviter qu’un conseil nutritionnel inventé ne circule.
Et vous, quelles sont vos pratiques pour éviter que vos IA ne deviennent des vecteurs de désinformation ? Partagez vos astuces en commentaires.

Développeur full-stack depuis 25 ans, je suis passé du PHP des années 2000 aux stacks modernes (Next.js, React Native, IA). J’accompagne entrepreneurs et créateurs dans leurs projets digitaux avec une approche pragmatique : du code aux résultats concrets.