Confirman caso de envenenamiento por seguir consejos de ChatGPT

TRENTON, Nueva Jersey, EU, 14 de agosto de 2025.- Un hombre de 60 años, sin historial médico ni psiquiátrico previo, fue hospitalizado la semana pasada tras ingerir bromuro de sodio, un compuesto tóxico que le fue recomendado por ChatGPT como sustituto de la sal de mesa. El caso, documentado en un informe de la revista Annals of Internal Medicine: Clinical Cases, destaca los riesgos de usar herramientas de inteligencia artificial para obtener consejos de salud.
De acuerdo a lo informado, el hombre buscaba eliminar el cloruro de su dieta y consultó a la IA para encontrar un reemplazo. La respuesta de ChatGPT sugirió el bromuro, un compuesto que se usaba como sedante en el siglo 19, pero que ahora se sabe que es tóxico en dosis altas. Sucedió que después consumir el bromuro de sodio durante tres meses, el paciente presentó síntomas graves como paranoia, alucinaciones y problemas de coordinación, creyendo que su vecino intentaba envenenarlo.
Los médicos diagnosticaron bromismo, una condición casi extinta. Los investigadores del informe señalaron que, al replicar la consulta, la IA volvió a sugerir el bromuro, sin una advertencia clara sobre su toxicidad.
Durante las tres semanas de hospitalización, los niveles de cloruro del paciente se normalizaron gradualmente, y sus síntomas psicóticos desaparecieron, eliminando la necesidad de medicación antipsicótica. A pesar de su recuperación y alta, sus niveles de bromuro seguían siendo elevados.