📝 RESUMEN
En un mundo en el que cada vez más personas consultan a ChatGPT o Gemini sobre sus síntomas antes de ir al médico, un experimento reciente ha encendido todas las alarmas. Un equipo de investigadores inventó una enfermedad ocular completamente ficticia llamada “bixonimanía”, subió un par de artículos falsos a internet, y observó cómo los principales modelos de Inteligencia Artificial (IA) no solo se creyeron la mentira, sino que empezaron a diagnosticarla a usuarios reales. Peor aún, esta enfermedad inventada logró filtrarse en la literatura científica revisada por pares. Este caso publicado en Nature demuestra una vulnerabilidad crítica: los modelos de IA actuales, al nutrirse indiscriminadamente de internet, son altamente susceptibles a la desinformación (“alucinaciones”), lo que plantea serios riesgos éticos y de salud pública si dependemos ciegamente de ellos.
1. El Nacimiento de la “Bixonimanía” 👁️🤥
Todo comenzó como un experimento de la investigadora Almira Osmanovic Thunström (Universidad de Gotemburgo). Quería probar si los Grandes Modelos de Lenguaje (LLMs) filtrarían información médica evidentemente falsa. Inventó la “bixonimanía”, una supuesta enfermedad ocular atribuida a la luz azul de las pantallas.
Para dejar claro que era una farsa, llenó sus publicaciones en servidores de preimpresiones (preprints) con pistas ridículas: el autor principal era un investigador generado por IA, trabajaba en una universidad inexistente en “Nova City”, agradecía a un profesor de la “Flota Estelar a bordo del USS Enterprise” y declaraba abiertamente en el texto: “todo este artículo es inventado”.
2. La IA Muerde el Anzuelo (y lo Difunde) 🎣🤖
El experimento funcionó demasiado bien. En pocas semanas, gigantes como ChatGPT de OpenAI, Copilot de Microsoft, Gemini de Google y Perplexity comenzaron a tratar a la bixonimanía como una condición médica real y emergente.
El problema radica en cómo “aprenden” estos modelos. No tienen un entendimiento real del mundo; funcionan prediciendo texto basándose en inmensas bases de datos (como Common Crawl) que aspiran todo el contenido de internet. Cuando la IA encontró los artículos falsos formateados con un estilo médico profesional, su algoritmo le dio más peso a la “apariencia” de autoridad que a las banderas rojas del contenido, propagando la desinformación a los usuarios que preguntaban por síntomas de irritación ocular.
3. El Efecto Dominó: Contaminando la Ciencia Real 📚📉
El aspecto más aterrador del experimento no fue que los chatbots fallaran, sino que los humanos también lo hicieron. Investigadores reales comenzaron a citar los artículos falsos sobre la bixonimanía en revistas científicas revisadas por pares (como un estudio en la revista Cureus, que posteriormente fue retractado).
Esto revela un ciclo tóxico: investigadores (posiblemente usando IA para redactar sus propios trabajos) citan información generada por IA sin leerla. Estos nuevos artículos se publican, alimentando de nuevo a las bases de datos de la IA, dándole mayor “validación” a la mentira original. Como advierten los expertos, es un envenenamiento automatizado de la literatura científica.
4. Perspectivas: Por Qué Aún No Estamos Listos ⚖️🔭
Este experimento es un balde de agua fría necesario frente al optimismo desbordado sobre la IA en la medicina.
La Cruda Realidad:
- Vulnerabilidad a la Manipulación: Si un investigador bien intencionado pudo hacer esto, actores maliciosos podrían inventar enfermedades o exagerar síntomas para vender curas milagrosas, suplementos (como lentes para la luz azul) o manipular mercados.
- Falta de Filtros de Calidad: Las IA actuales son pésimas para discernir la verdad de la ficción si la ficción está bien empaquetada. Como señala el Dr. Glenn Cohen de Harvard: “Nuestra salud no debería ser el beta-tester para las empresas tecnológicas”.
Las Limitaciones y el Llamado a la Acción:
- Aunque las empresas tecnológicas (como OpenAI y Google) afirman que sus modelos más recientes han mejorado sus filtros de seguridad y reducen las alucinaciones, la velocidad a la que lanzan nuevas versiones supera la capacidad de la comunidad científica para auditarlas.
- La solución urgente no es solo tecnológica, sino humana: necesitamos un panel de evaluación continuo, estandarizado y de acceso abierto para cualquier IA que pretenda dar consejos de salud. Hasta entonces, este caso nos recuerda la regla de oro: la IA es una herramienta de apoyo, jamás un sustituto del criterio médico o científico riguroso.
📚 REFERENCIA BIBLIOGRÁFICA
Stokel-Walker, C. (2026). Scientists invented a fake disease. AI told people it was real. Nature.
Preprint falso 1: https://www.preprints.org/manuscript/202404.1687?utm_source=Live+Audience&utm_campaign=4b50fd2341-nature-briefing-daily-20260408&utm_medium=email&utm_term=0_-33f35e09ea-49155635
Preprint falso 2: https://www.preprints.org/manuscript/202405.0217?utm_source=Live+Audience&utm_campaign=4b50fd2341-nature-briefing-daily-20260408&utm_medium=email&utm_term=0_-33f35e09ea-49155635

















Deja una respuesta