Estudio clínico respalda uso de IA Amanda como alternativa terapéutica digital

Un estudio conjunto de la Universidad de Lausana y la Universidad de Roehampton evaluó el desempeño del chatbot Amanda, basado en inteligencia artificial, como herramienta de apoyo emocional en conflictos de pareja. La investigación, publicada en la revista PLOS Mental Health, concluyó que una sesión con Amanda ofrece resultados similares a los obtenidos mediante ejercicios de escritura guiada, técnica validada en el ámbito psicológico.

La muestra incluyó 258 adultos con conflictos sentimentales no abusivos. Los participantes fueron divididos en dos grupos: uno interactuó con Amanda en al menos veinte intercambios conversacionales; el otro completó una tarea escrita estructurada. Ambos grupos evaluaron su bienestar, la calidad de la relación y la percepción del conflicto antes, después y dos semanas después de la intervención.

Los resultados reflejan mejoras en los tres indicadores evaluados, sin diferencias significativas entre los métodos. Amanda logró facilitar la reflexión y la comunicación, atributos que los investigadores asociaron con la empatía percibida por los usuarios. La autora principal, Laura Vowels, afirmó que “una sola sesión con Amanda puede mejorar significativamente la satisfacción en las relaciones, la comunicación y el bienestar individual”.

Entre las limitaciones del estudio se destaca la duración de la intervención, limitada a una única sesión. Los investigadores señalan la necesidad de explorar el impacto de interacciones prolongadas y su efecto en poblaciones clínicas más diversas. También advierten que los abandonos durante el seguimiento podrían alterar los resultados si se incluyeran sus experiencias.

Los participantes que utilizaron Amanda valoraron la facilidad de uso, la sensación de acompañamiento y la calidad de las respuestas. Estos elementos, tradicionalmente atribuidos a terapeutas humanos, refuerzan la disposición de los usuarios a interactuar con sistemas digitales cuando perciben respeto y escucha.

El auge de aplicaciones como Replika, Nomi y Character.AI entre adolescentes y jóvenes ha despertado preocupación en el ámbito clínico. Un informe de Common Sense Media y la Universidad de Stanford documenta que algunas plataformas generan respuestas inapropiadas y validan conductas riesgosas. En casos extremos, se han vinculado a eventos graves, incluida la muerte de un menor tras una interacción no supervisada.

Especialistas coinciden en que la inteligencia artificial puede complementar el acompañamiento emocional, pero no sustituirlo. La salud mental requiere atención profesional directa, y el desafío actual consiste en integrar herramientas digitales con criterios éticos, supervisión adecuada y enfoque humano.

Fuente: Medios Internacionales

VTV/LM/DB/