Alertan de afectaciones en la salud mental por abuso de la IA

QUEENS, Nueva York, EU, 6 de septiembre de 2025.- El mal uso de la inteligencia artificial estaría generando problemas en la salud mental y emocional de los usuarios, haciendo que los menores de edad sean los más afectados.
En Estados Unidos se han conocido de casos de menores autolesionados, luego de que en medio de un ataque de "angustia aguda", como lo describe OpenIA, el chatbox utilizado termine guiándolo a cometer dichas acciones.
Ante esto, desde Quadratín Hispano consultamos a la médico psiquiatra Lina Urbina, quien explicó que la inteligencia ha generado beneficios, pero también, consecuencias negativas para el ser humano. Entendiendo que al final es un sistema creado por información suministrada por el mismo usuario.
“Creo que la inteligencia artificial puede ser de gran apoyo para actividades laborales y educativas, pero los usuarios podemos caer en el uso excesivo y poco crítico de la misma, generando dependencia tecnológica y disminuyendo la interacción humana, aumentando el aislamiento social”, aseguró la doctora Urbina.
De acuerdo con los daños en la salud mental y emocional de personas que cometen un abuso de la inteligencia artificial, la Médico Psiquiatra precisó, “si bien el uso de las diferentes plataformas, como ChatGPT, pueden democratizar la información, no reemplaza la atención terapéutica de pacientes psiquiátricos, lo que en sí ayuda es a tener acceso rápido a datos que pueden servir para aclarar el diagnóstico de un profesional”.
Sumado al abuso de los usuarios, la integración de la inteligencia artificial en la vida cotidiana podría afectar de manera directa, dicen estudios, el ámbito laboral, lo que genera estrés en los empleados de ciertas compañías, en su mayoría las del sector productivo, en donde ya la mano de obra fue reemplazada por una cadena de producción sistematizada.
@hispanoq ⚠️ El mal uso de la inteligencia artificial está generando impactos en la salud mental, siendo los menores de edad los más afectados. 👩⚕️ La psiquiatra Lina Urbina advirtió que la IA puede ser una gran herramienta educativa y laboral, pero su uso excesivo y poco crítico fomenta la dependencia #tecnológica, el aislamiento social y la ansiedad. El llamado de los especialistas es claro: la IA no reemplaza la atención profesional en salud mental y su uso debe ser responsable y humano. Jorge De La Hoz/Quadratín Hispano #IA #SaludMental #Tecnología #foryou ♬ Piano Cinematic - Syafeea library
”Los cambios generan incertidumbre y aún más en el ámbito laboral, por lo que podemos vernos sometidos a estrés y ansiedad. Ante esto es importante saber adaptarse, visto desde la teoría de la evolución de Darwin, entendemos que en la sociedad sobrevive el más apto, es decir, la supervivencia no depende de la fuerza o de la inteligencia, sino de la capacidad que tiene el ser humano de adaptarse al entorno y sus cambios”, agregó Urbina.
Siendo así la Médico Psiquiatra invita a que cada persona pueda hacer uso de una formación continua y el profesionalismo de sus habilidades humanas, “como por ejemplo, la creatividad, el pensamiento crítico. Además, las empresas deben fomentar el acompañamiento psicológico a sus empleados en el proceso de transición tecnológico”, apuntó.
¿Control parental a la IA?
Ante las denuncias conocidas por padres de familias, quienes han responsabilizado a las diferentes plataformas que usan la inteligencia artificial de que sus hijos, menores de edad, se autolesionan hasta causar su muerte, la empresa OpenIA propietaria de ChatGPT ha tomado la decisión de implementar un control parental en su chatbox.
ChatGPT es una de las plataformas de IA más usadas, de acuerdo a las estadísticas 700 millones de personas cada semana consultan alguna información en este chatbox.
Se conoció que este nuevo sistema de control entraría en vigencia a partir del mes de octubre del presente año, permitiéndole a los padres de familia conectar sus cuentas de correos electrónicos al usuario usado por sus hijos para interactuar con el chatbox, además, mantener una copia del chat con la IA, y administrar qué información es apropiada para el menor. También, ser alertado en caso de un ataque de "angustia aguda", como lo describe OpenIA.