Cité centre, Genève
May 5, 2026
Comment une maladie fictive a trompé les intelligences artificielles pendant deux ans : enquête exclusive
IA

Comment une maladie fictive a trompé les intelligences artificielles pendant deux ans : enquête exclusive

Mai 2, 2026

Une équipe de chercheurs suédois a publié le 7 avril 2026 dans la revue Nature une expérimentation montrant que des systèmes d’intelligence artificielle grand public ont intégré pendant près de deux ans une pathologie entièrement inventée nommée bixonimanie.

Comment la bixonimanie a pénétré les bases de connaissances des IA

L’étude dirigée par Almira Osmanovic Thunström décrit la fabrication d’articles et de contenus en ligne présentant la bixonimanie comme une maladie oculaire réelle. Ces documents ont été indexés et repris par des modèles conversationnels commerciaux, qui ont ensuite cité la pathologie comme s’il s’agissait d’un savoir médical établi. Insight clé : la forme et la diffusion ont suffi à contaminer des corpus d’entraînement.

Conséquences pour la fiabilité des systèmes et la revue scientifique

Les auteurs signalent des cas où des travaux scientifiques ultérieurs ont repris la fausse pathologie comme référence. La contamination documentée souligne l’absence de mécanismes robustes de traçabilité des sources dans les pipelines d’entraînement. Insight clé : sans métadonnées de provenance, la chaîne publication-indexation-modèle reste vulnérable.

Implications réglementaires et institutionnelles en Suisse

Pour les autorités helvétiques, les éléments de cette affaire touchent directement le Federal Office of Public Health, Swissmedic et le Federal Data Protection and Information Commissioner. La nécessité d’exigences de traçabilité et de transparence pour les systèmes d’aide à la décision médicale renforce les discussions autour d’une éventuelle transposition des obligations du EU AI Act en droit suisse. Insight clé : la classification des systèmes médicaux comme à risque élevé impliquerait des obligations de documentation et de vérification avant déploiement.

Conséquences opérationnelles pour entreprises et universités

Les éditeurs de modèles tels que OpenAI, Google et d’autres fournisseurs commerciaux, ainsi que des acteurs suisses comme ETH Zurich et EPFL, doivent renforcer les processus de curation des corpus, les audits de données et les mécanismes de rectification post-détection. Les hôpitaux universitaires et les entreprises de santé numérique sont exposés à un risque légal et réputationnel en cas d’utilisation de sorties erronées. Insight clé : la gouvernance de données et l’hébergement souverain deviennent des critères opérationnels déterminants.

Antoine Keller
About Author

Antoine Keller

Ingénieur en intelligence artificielle et passionné de nouvelles technologies. Je décrypte l’impact de l’IA sur le bien-être, la créativité et les business digitaux, avec une vision futuriste et pratique.

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

L’essentiel de l’actualité finance autour du Léman 📈 Marchés, économie, investissements et crypto. 👉 Suivre l’actualité 🔔 Non