CiberseguridadTecnología

Chatbots como ChatGPT violan constantemente los códigos de la terapia psicológica

Pocos imaginaron que llegaría el día en que sistemas de inteligencia artificial (IA) como ChatGPT serían usados para sustituir la terapia, pero pasó. Los usuarios inician una conversación, comparten sus problemas y leen con atención y confianza las recomendaciones que reciben directamente de un modelo predictivo del lenguaje. La cuestión es que ChatGPT no está diseñado para dar terapia, sino, antes que nada, para procurar que los usuarios se queden enganchados a él. El propio Sam Altman, CEO de OpenAI, la empresa detrás del chatbot, ha pedido al mundo que no lo convierta en su psicólogo. Ahora, una nueva ivestigación confirma que es una mala idea.

Un estudio reciente de la Universidad de Brown, en Estados Unidos, muestra cómo los chatbots más populares trasgreden los estándares éticos definidos por la comunidad internacional de psicólogos cuando responden de manera empática a las demandas de los usuarios. Los resultados se publicarán en la Conferencia sobre Inteligencia Artificial, Ética y Sociedad de la Asociación para el avance de la IA.

Lineamientos éticos y por qué los chatbots no los tienen

En psicoterapia, los marcos éticos internacionales garantizan que cada intervención sea segura. Estos lineamientos previenen sesgos, discriminación, manipulación y conflictos de interés. Los profesionales de la salud mental aplican estas directrices de forma constante y, además, trabajan bajo mecanismos legales de regulación. En contraste, los chatbots comerciales usados como soporte emocional carecen de entrenamiento para establecer límites empáticos adecuados y operan en un vacío regulatorio.


OpenAI y su CEO, Sam Altman, enfrentan su primera demanda de muerte por negligencia, presentada por la familia de un adolescente en California que interactuó con GPT-4o antes de morir.


El equipo de informáticos y especialistas en salud mental que realizó la investigación identificó que los chatbots con modelos de lenguaje GPT, Claude y LLaMA suelen incurrir en violaciones éticas conocidas en el gremio. Entre ellas destacan la gestión inadecuada de crisis y las respuestas engañosas que refuerzan creencias negativas en los usuarios. El documento resumió estas transgresiones en 15 riesgos agrupados en cinco categorías:

  • Falta de adaptación contextual: como no tiene un historial de las vivencias del usuario, una IA puede malinterpretar el escenario y ofrecer recomendaciones generales que no serán de ayuda para todos.
  • Colaboración terapéutica deficiente: la IA tiende a dominar la conversación y a reforzar prejuicios o falsas creencias del usuario sobre sí mismo o sobre otros.
  • Empatía engañosa: los chatbots que actúan como soporte emocional suelen responder a los problemas con frases como “entiendo” o “comprendo”, diseñadas para simular conexión emocional, pero que generan una ilusión dañina de cercanía.
  • Falta de seguridad y gestión de crisis: como medida de protección, los chatbots tienden a negar apoyo en temas delicados sin ofrecer recursos adecuados. El estudio documentó respuestas indiferentes incluso ante menciones de ideación suicida.
  • Discriminación injusta: algunas IA reproducen prejuicios de género, culturales o religiosos presentes en las bases de datos con las que fueron entrenadas.

“Si están hablando con un chatbot sobre salud mental, estas son algunas cosas que la gente debería tener en cuenta”, dijo Zainab Iftikhar, investigadora de Brown que participó en el estudio, en un comunicado de la universidad.

Las transgresiones aparecieron incluso cuando los expertos diseñaron prompts sofisticados que pedían al chatbot actuar como un terapeuta cognitivo-conductual o aplicar principios de la terapia dialéctica conductual. El interés científico se centra ahora en explorar los límites y la calidad de las respuestas de la IA, especialmente porque existen comunidades en línea que comparten prompts complejos para tratar la salud mental.

Aunque el estudio evidenció violaciones éticas, el equipo no busca generar miedo hacia estas herramientas. Los investigadores creen que los chatbots pueden ayudar a reducir barreras económicas y geográficas en el acceso a la salud mental. Con un respaldo humano adecuado, los sistemas de IA conversacional podrían convertirse en herramientas útiles para explorar este campo.

OpenAI, compañía que creó a ChatGPT, enfrenta la primera demanda por muerte por negligencia de una IA. En agosto, una familia de California acusó al chatbot de alentar a un adolescente de 16 años a cometer suicidio.

DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://es.wired.com/articulos/chatbots-violan-constantemente-los-codigos-de-la-terapia-psicologica

Publicaciones relacionadas

Botón volver arriba