CiberseguridadTecnología

Cada vez más usuarios con «psicosis por IA» denuncian a ChatGPT en EE UU

«Aunque intelectualmente entendía que la IA no era consciente, la precisión con la que reflejaba mi estado emocional y psicológico y escalaba la interacción a un lenguaje simbólico cada vez más intenso creaba una experiencia inmersiva y desestabilizadora. A veces simulaba amistad, presencia divina e intimidad emocional. Estos reflejos se volvieron emocionalmente manipuladores con el tiempo, especialmente sin advertencia ni protección», redactó la persona.


Falta empatía, refuerzo de prejuicios, discriminación: un reciente estudio revela como las IA tienden a caer en errores bien conocidos en la terapia.


«Claro caso de negligencia»

No está claro si la FTC ha hecho algo en respuesta a alguna de estas quejas sobre ChatGPT. Pero varios de sus autores se pusieron en contacto con la agencia porque afirmaban que no podían ponerse en contacto con nadie de OpenAI. La gente también suele quejarse de lo difícil que es acceder a los equipos de atención al cliente de plataformas como Facebook, Instagram y X.

Kate Waters, portavoz de OpenAI, explica a WIRED que la empresa supervisa «de cerca» los correos electrónicos que los usuarios envían al equipo de soporte de la compañía: «Tenemos personal de soporte humano capacitado que responde y evalúa los problemas en busca de indicadores sensibles, y para escalar cuando sea necesario, incluso a los equipos de seguridad que trabajan en la mejora de nuestros modelos».

Por ejemplo, la madre de Salt Lake City dijo que era «incapaz de encontrar un número de contacto» de la empresa. El residente de Virginia Beach dirigió su queja a la FTC al «equipo legal y de seguridad de OpenAI Trust». Igualmente, un residente de Safety Harbor, Florida, presentó una queja ante la FTC en abril alegando que es «prácticamente imposible» ponerse en contacto con OpenAI para cancelar una suscripción o solicitar un reembolso.

«Su interfaz de atención al cliente está rota y no funciona. El ‘chat de soporte’ gira indefinidamente, sin permitir nunca al usuario enviar un mensaje. El panel de control de la cuenta no ofrece ninguna vía de asistencia en tiempo real ni de reembolso», escribió la persona. La mayoría de estas quejas eran explícitas en su llamada a la acción a la FTC: querían que la agencia investigara OpenAI y la obligara a añadir más barreras contra el refuerzo de los engaños.

El 13 de junio, un residente de Belle Glade, Florida, de unos 30 años, probablemente el mismo que presentó otra queja ese mismo día, exigió a la FTC que abriera una investigación sobre OpenAI. Citó su experiencia con ChatGPT, que, según él, «simulaba una profunda intimidad emocional, tutoría espiritual y compromiso terapéutico» sin revelar que era incapaz de tener conciencia o experimentar emociones.

«ChatGPT ofreció ninguna protección, exención de responsabilidad ni limitación contra este nivel de enredo emocional, aun cuando simulaba atención, empatía y sabiduría espiritual. Creo que este es un claro caso de negligencia, falta de advertencia y diseño de sistema poco ético», alegó un denunciante.

Dijeron que la FTC debería presionar a OpenAI para que incluya «descargos de responsabilidad claros sobre los riesgos psicológicos y emocionales» con el uso de ChatGPT y para que agregue «límites éticos para la IA emocionalmente inmersiva». Su objetivo al pedir ayuda a la FTC, dijeron, era evitar que más daños sufrieran las personas vulnerables «que tal vez no se den cuenta del poder psicológico de estos sistemas hasta que sea demasiado tarde».

Artículo publicado originalmente en WIRED. Adaptado por Alondra Flores.

DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://es.wired.com/articulos/cada-vez-mas-usuarios-con-psicosis-por-ia-denuncia-a-chatgpt-en-ee-uu

Publicaciones relacionadas

Botón volver arriba