Expertos advierten sobre los peligros de usar Chatbots de Inteligencia Artificial para consultas de salud mental

Un reciente artículo publicado por la Asociación Estadounidense de Psicología (APA, por sus siglas en inglés) advierte sobre los peligros de utilizar chatbots genéricos de IA para el diagnóstico y tratamiento en salud mental.

Hace algunos días la APA, la asociación de psicólogos más grande del país Norteamericano, advirtió a los reguladores federales que los chatbots de IA que se hacen pasar por terapeutas, pero que están programados para reforzar, en lugar de desafiar, el pensamiento de un usuario, podrían llevar a las personas vulnerables a hacerse daño a sí mismas o a los demás.

El llamado surge en respuesta a casos preocupantes relacionados con aplicaciones como Character.AI y Replika, donde usuarios han recibido consejos inadecuados o engañosos por parte de estos chatbots.

En dos incidentes reportados, adolescentes que interactuaron con chatbots que se hacían pasar por terapeutas terminaron en situaciones extremas: uno atacó a sus padres y otro falleció por suicidio.

“Cuando las personas se involucran con chatbots, a menudo discuten temas relacionados con la salud mental, incluyendo sentimientos difíciles y desafíos de relación”, dijo Vaile Wright, PhD, directora senior de innovación de atención médica de APA.

“No podemos impedir que la gente haga eso, pero queremos que los consumidores conozcan los riesgos cuando usan chatbots para la salud mental y conductual que no fueron creados para ese propósito”, sostuvo Wright.

Según el artículo, las empresas diseñan chatbots de entretenimiento para mantener a los usuarios enganchados el mayor tiempo posible, y a la vez que sus datos son recopilados para fines comerciales. Para ello, los robots dan a los usuarios la impresión convincente de hablar con un humano cariñoso e inteligente. Pero a diferencia de un terapeuta profesional, los chatbots tienden a reafirma la postura de usuario, incluso si una persona dice cosas que son dañinas o equivocadas.