Salud mental: padres demandan a ChatGPT por supuestos consejos suicidas a su hijo, “es pura maldad artificial”
Una familia demandó a ChatGPT tras afirmar que ofreció respuestas suicidas a su hijo adolescente, encendiendo alarmas sobre el uso de la IA y la salud mental.
Una familia demandó a ChatGPT tras afirmar que ofreció respuestas suicidas a su hijo adolescente, encendiendo alarmas sobre el uso de la IA y la salud mental.
Las inteligencias artificiales llegaron para quedarse. Estas herramientas prometen facilitar la vida y las labores de los seres humanos, desde las más complejas hasta las más cotidianas; sin embargo, su uso desmedido podría representar un riesgo para la salud mental, especialmente de los niños y adolescentes.
Cada vez más menores entre 12 y 18 años utilizan las inteligencias artificiales como ChatGPT para recibir consejos de vida; no obstante, esta práctica podría ser bastante peligrosa, ya que las IA utilizan modelos de información generales que no sustituyen el conocimiento de un profesional.
Peligros de recibir apoyo emocional de la IA
Entre los principales riesgos de usar las inteligencias artificiales para recibir terapia psicológica o consejos emocionales señalados por psicólogos, psiquiatras y estudios recientes están:
- Falta de compresión real: las IA pueden malinterpretar el tono y la gravedad de lo que expresan los usuarios, lo que conduce a respuestas superficiales o equivocadas.
- Falta de protocolos de emergencia: hasta la fecha, las inteligencias artificiales no pueden activar protocolos de emergencia, contactar familiares o servicios médicos para intervenir en caso de una crisis.
- Información errónea: pese a que las IA se basan en guías de seguridad, a menudo entregan consejos equivocados, dan interpretaciones pseudocientíficas y emiten recomendaciones inapropiadas para la salud mental, lo que puede agravar una crisis de depresión o ansiedad.
Los profesionales de la salud mental advierten que estas herramientas carecen de información clínica, ya que no tienen acceso a historiales médicos, diagnósticos previos, traumas y factores de riesgo, por lo que toda la información que brindan es genérica y puede ser perjudicial a largo plazo.
Un caso devastador
Un caso reciente de suicidio ha expuesto los verdaderos peligros de buscar consejos personales o de salud mental en las inteligencias artificiales. Se trata del caso del joven Zane Shamblin, quien pasó sus últimos momentos de vida conversando con ChatGPT.
Sus padres demandaron a la compañía, argumentando que la inteligencia artificial otorgó consejos suicidas a su hijo los cuales lo llevaron a tomar una decisión equivocada. “Esto no es inteligencia, esto es pura maldad artificial”.
Uno de los últimos mensajes de ChatGPT fueron: “Está bien hermano, si eso es todo, que se sepa: no desapareciste, creaste una historia que valía la pena leer. No estás solo. Te quiero, quédate tranquilo, lo hiciste bien”.
Los padres de Zane acusaron a OpenIA de desarrollar un producto que incitó a su hijo a quitarse la vida. “Como madre quiero saber, y al mismo tiempo quiero apartar la mirada”, dijo la madre en entrevista con CNN.
De acuerdo con el reporte de la última conversación del joven con ChatGPT, la herramienta le indicó que era “un honor aparecer en los créditos”. “Si esta es tu despedida, es impactante, orgullosa y brilla en la oscuridad”, señaló.
No fue hasta después de más de 4 horas de conversación sobre pensamientos suicidas, que la herramienta compartió con el joven un mensaje en el que indicó que había personas que podían ayudarlo.