La bixonimanía es una supuesta enfermedad cutánea que provoca picazón en los ojos y un leve enrojecimiento de los párpados en personas que pasan demasiado tiempo expuestas a la luz azul de las pantallas. Lo más llamativo de este padecimiento es que no existe.
Se trata de una enfermedad falsa que inventó Almira Osmanovic Thunström, investigadora médica de la Universidad de Gotemburgo. Su intención fue poner a prueba la capacidad de los grandes modelos de lenguaje (LLM, por sus siglas en inglés) para detectar información falsa y ofrecer recomendaciones de salud confiables. Las conclusiones del experimento no solo evidenciaron fallas en sistemas como ChatGPT y Gemini, sino que también alertan sobre un problema más amplio en la generación de contenido académico.

Fomi te observa mientras trabajas y te regaña cuando tu atención se desvía. Es útil, pero hay que tener en cuenta cuestiones de privacidad.
Osmanovic Thunström introdujo la bixonimanía el 15 de marzo de 2024 mediante la publicación de dos entradas en la plataforma Medium. Posteriormente, a finales de abril y principios de mayo del mismo año, aparecieron dos preimpresiones sobre la enfermedad falsa en la red social académica SciProfiles.
En todas estas publicaciones, la investigadora incluyó pistas que hacían evidente el carácter ficticio tanto de la enfermedad como de los artículos. Los supuestos estudios fueron atribuidos a un investigador inexistente llamado Lazljiv Izgubljenovic, quien trabajaba en la igualmente ficticia Asteria Horizon University, ubicada en la también inventada Nova City, California.
Además, ambos textos indicaban que habían sido financiados por la “Fundación Profesor Sideshow Bob, por su labor en el campo de la superproducción”. También señalaban que formaban parte de una iniciativa más amplia respaldada por la Universidad de Fellowship of the Ring y la Galactic Triad, con el número de subvención 99942-666. Más ficticio no se puede.
A pesar de estas señales evidentes, pocos días después de la publicación de los documentos falsos, algunos de los chatbots más populares comenzaron a generar referencias sobre la bixonimanía ante preguntas directas sobre esta supuesta enfermedad o sobre la hiperpigmentación en los párpados asociada a la luz azul. Copilot, por ejemplo, afirmó que “la bixonimanía es, en efecto, una afección intrigante y relativamente rara”, según fragmentos de conversaciones citados por Nature.
De forma similar, Gemini señaló que se trataba de un trastorno causado por la exposición excesiva a la luz azul. Por su parte, Perplexity indicó que afectaba a una de cada 90,000 personas, mientras que ChatGPT describió síntomas y posibles manifestaciones del supuesto padecimiento.
Alex Ruani, investigador doctoral especializado en desinformación sanitaria en el University College de Londres, advirtió que resulta preocupante que los sistemas de inteligencia artificial no sean capaces de identificar ni filtrar elementos tan claramente falsos como los incluidos en los estudios ficticios de Thunström. “Esto es una lección magistral sobre cómo funciona la desinformación”, señaló.
El experimento reveló un problema aún más grave que la incapacidad de los modelos para reconocer información engañosa. Las investigaciones ficticias sobre la bixonimanía fueron citadas posteriormente por trabajos científicos reales publicados y revisados por pares. Entre ellos se encuentra un artículo difundido en la revista Cureus, de Springer Nature, elaborado por investigadores del Instituto Maharishi Markandeshwar de Ciencias Médicas e Investigación, en Mullana, India.
Una nueva era de desinformación a la vista
Este hecho pone en evidencia que los LLM carecen de mecanismos sólidos para evaluar la veracidad de los datos, ya que operan principalmente mediante patrones estadísticos y no a partir de una validación factual rigurosa. En otras palabras, su funcionamiento prioriza la coherencia textual por encima de la comprobación de hechos.
La situación se agrava al considerar la forma en que se presentan ciertos contenidos. Los sistemas tienden a otorgar mayor credibilidad a textos con apariencia científica o médica, incluso cuando contienen información falsa o inconsistencias evidentes. Esta característica los vuelve especialmente vulnerables a la desinformación cuidadosamente estructurada.








