Inteligencia artificial como psicóloga: la peligrosa tendencia que crece en silencio, conoce sus riesgos
Hablar con una inteligencia artificial se ha vuelto un refugio emocional para miles. Psicólogos advierten los riesgos y límites claros de esta práctica.
Hablar con una inteligencia artificial se ha vuelto un refugio emocional para miles. Psicólogos advierten los riesgos y límites claros de esta práctica.
La inteligencia artificial se ha convertido en una herramienta muy utilizada por las personas en su día a día, gracias a que es capaz de responder preguntas puntuales en minutos con precisión; sin embargo, muchos la están empleando en tareas que corresponderían a un profesional, lo que representa un riesgo.
Expertos en psicología han advertido que la inteligencia artificial, si bien puede ofrecer una guía ante determinadas circunstancias, no reemplaza una consulta psicológica, ni mucho menos una terapia, ya que sus respuestas suelen ser genéricas basadas en datos de la web.
Pese a esto, según un informe de OpenAI, compartido exclusivamente con Axios, más de 40 millones de personas en todo el mundo recurren a ChatGPT diariamente para obtener información de salud física y mental.
Las personas entre 10 y 25 años serían las que más consultan sobre estos temas a la inteligencia artificial, asi lo indica una encuesta en JAMA Network Open. De acuerdo con analistas, el 13,1 % de adolescentes y jóvenes en Estados Unidos han utilizado IA (como ChatGPT, Gemini o My AI) para consejos de salud mental cuando se sienten tristes, enojados o nerviosos, lo que equivale a unos 5,4 millones de jóvenes.
¿Por qué ocurre esto?
Entre las razones por las cuales los jóvenes prefieren la guía de la inteligencia artificial en temas de salud mental están: la facilidad de acceso, pues los motores están disponibles 24/7; la comodidad y la confianza; y la reducción del estigma.
De acuerdo con expertos en psicología y salud mental, las inteligencias artificiales no deben ser satanizadas, pues pueden ser utilizadas como herramientas complementarias a una terapia psicológica convencional, ya que ofrecen un seguimiento diario y permiten llevar a cabo ejercicios dinámicos.
No obstante, se debe tener precaución a la hora de utilizar estos chats como consejeros, dado que no tienen licencia médica ni entrenamiento clínico y no pueden diagnosticar ni tratar trastornos mentales de forma profesional.
Algunos de los riesgos que supone el uso desmedido de la inteligencia artificial como apoyo emocional son: la recepción de respuestas y consejos inapropiados o peligrosos en situaciones serias, como ideaciones suicidas, además de sugerencias que pueden reforzar pensamientos dañinos en lugar de proporcionar ayuda constructiva.
En ese sentido, en caso de experimentar emociones intensas o problemas relacionados con trastornos como la depresión y la ansiedad, se recomienda acudir a un profesional de la salud mental antes de emplear cualquier herramienta tecnológica.