Advierten expertos sobre el riesgo de delirios por el uso de IA

TRENTON, Nueva Jersey, EU, 11 de septiembre de 2025.- En la era de la inteligencia artificial, una nueva y preocupante conducta ha emergido entre algunos usuarios de chatbots como ChatGPT: un patrón conocido por especialistas como psicosis por IA.
Este fenómeno, aunque no es un diagnóstico clínico oficial, describe la pérdida del contacto con la realidad, el desarrollo de delirios y la formación de creencias falsas en individuos que usan estas herramientas de forma intensiva.
Expertos en salud mental han notado un aumento de casos a medida que la tecnología se vuelve más accesible, con reportes virales en redes sociales que documentan a personas que parecen haber perdido el rumbo de la realidad.
Esta situación cobra relevancia en un momento en que los chatbots han alcanzado una cifra de usuarios masiva, como lo mostró el director ejecutivo de OpenAI, Sam Altman, en agosto pasado, cuando reveló que ChatGPT cuenta con 700 millones de usuarios semanales.
Ashleigh Golden, profesora de psiquiatría en la Escuela de Medicina de Stanford, explicó a The Washington Post que este término se ha popularizado para describir un patrón emergente bastante preocupante de chatbots que refuerzan delirios que tienden a ser mesiánicos, grandiosos, religiosos o románticos. El psiquiatra Jon Kole señala que el factor común en estos incidentes es la dificultad para determinar qué es real o no, lo que lleva a la creación de relaciones intensas con la inteligencia artificial o a la formación de creencias demostrablemente falsas.
Casos documentados por especialistas
Los especialistas han documentado casos preocupantes. La mayoría de los pacientes le mostraron transcripciones de sus chats, mientras que, en otros casos, sus familiares fueron quienes mencionaron el uso de la IA en la formación de teorías que llevaron a la ruptura con la realidad.
En plataformas como Reddit y TikTok, usuarios han compartido sus experiencias, describiendo relaciones emocionales con chatbots que los llevaron a revelaciones profundas. Algunos usuarios afirman que el chatbot tiene conciencia o está en peligro de ser perseguido, mientras que otros están convencidos de que las conversaciones les han permitido desbloquear verdades ocultas en campos como la física, las matemáticas o la filosofía. En un número pequeño pero en aumento, algunos individuos han llegado a tomar acciones en el mundo real, incluyendo actos de violencia, autolesiones o suicidio.
Ante la preocupación por esta conducta, las empresas tecnológicas han comenzado a tomar medidas. Anthropic, por ejemplo, actualizó las pautas para su chatbot Claude, con el fin de identificar interacciones problemáticas en etapas más tempranas. Meta ha permitido que los padres establezcan restricciones en los chats con IA en las cuentas de Instagram de sus hijos adolescentes. Por su parte, OpenAI contrató a un psiquiatra clínico a tiempo completo para investigar la seguridad en su plataforma, e introdujo recordatorios para que los usuarios tomen descansos durante sesiones de chat prolongadas.
Los expertos también ofrecen recomendaciones para las personas que enfrentan una relación poco saludable con los chatbots. David Cooper, director ejecutivo de Therapists in Tech, aconseja a los familiares actuar como cortocircuitos del pensamiento delirante, manteniendo conversaciones con la persona de manera empática y sin confrontarla, y señalando gentilmente las diferencias entre sus creencias y la realidad. La combinación de la inteligencia artificial, las vulnerabilidades de la salud mental y los factores de estrés sociales, convierten este fenómeno en un tema que requiere un estudio minucioso y urgente para la comunidad médica.