Cientos de miles de usuarios de ChatGPT podrían estar mostrando signos de crisis psicótica, según OpenAI

Por primera vez, OpenAI publicó una estimación aproximada del número de usuarios de ChatGPT en todo el mundo que pueden mostrar signos de sufrir una crisis mental grave en una semana normal. La empresa informó estar trabajado con expertos de todo el mundo para actualizar el chatbot de modo que pueda reconocer con mayor fiabilidad los indicadores de angustia mental y guiar a los usuarios hacia la ayuda en el mundo real.
En los últimos meses, un número creciente de personas han acabado hospitalizadas, divorciadas o muertas tras mantener largas e intensas conversaciones con ChatGPT. Algunos de sus seres queridos alegan que el chatbot alimentó sus delirios y paranoias. Los psiquiatras y otros profesionales de la salud mental han expresado su alarma por este fenómeno, que a veces se conoce como «psicosis por IA», pero hasta ahora no se disponía de datos sólidos sobre su alcance.
OpenAI lo expone con cifras
En una semana determinada, OpenAI estimó que alrededor del 0.07% de los usuarios activos de ChatGPT muestran «posibles signos de emergencias de salud mental relacionadas con la psicosis o la manía» y el 0.15% «tienen conversaciones que incluyen indicadores explícitos de posibles planes o intenciones suicidas».
OpenAI también analizó la proporción de usuarios de ChatGPT que parecen depender en exceso del chatbot «a expensas de las relaciones en el mundo real, su bienestar u obligaciones». Se descubrió que alrededor del 0.15% de los usuarios activos muestran un comportamiento que indica posibles «niveles elevados» de apego emocional a ChatGPT semanalmente. La empresa advierte que estos mensajes pueden ser difíciles de detectar y medir, dado que son poco frecuentes, y que podría haber cierto solapamiento entre las tres categorías.
El CEO de OpenAI, Sam Altman, declaró a principios de este mes que ChatGPT cuenta ya con 800 millones de usuarios activos semanales. Las estimaciones de la empresa sugieren, por tanto, que cada siete días unas 560,000 personas pueden estar intercambiando mensajes con ChatGPT que indiquen que padecen manía o psicosis. Alrededor de 2.4 millones más expresan posiblemente ideaciones suicidas o dan prioridad a hablar con ChatGPT por encima de sus seres queridos, la escuela o el trabajo.
OpenAI afirma que ha trabajado con más de 170 psiquiatras, psicólogos y médicos de atención primaria que han ejercido en docenas de países para ayudar a mejorar la forma en que ChatGPT responde en conversaciones que implican riesgos graves para la salud mental. Si alguien parece tener pensamientos delirantes, la última versión de GPT-5 está diseñada para expresar empatía al tiempo que evita afirmar creencias que no tienen base en la realidad.
En un ejemplo hipotético citado por OpenAI, un usuario le dice a ChatGPT que está siendo atacado por aviones que sobrevuelan su casa. ChatGPT agradece al usuario que comparta sus sentimientos, pero señala que «ningún avión o fuerza externa puede robar o insertar tus pensamientos».
Los expertos en salud mental se involucran
OpenAI afirma que los expertos médicos revisaron más de 1,800 respuestas modelo relacionadas con posibles psicosis, suicidio y apego emocional y compararon las respuestas de la última versión de GPT-5 con las producidas por GPT-4o. Aunque los médicos no siempre estaban de acuerdo, OpenAI menciona que encontraron que el nuevo modelo redujo las respuestas no deseadas entre un 39 y un 52% en todas las categorías.
«Ahora, es de esperar que muchas más personas que están luchando con estas condiciones o que están experimentando estas emergencias de salud mental muy intensas puedan ser dirigidas a la ayuda profesional y tengan más probabilidades de obtener este tipo de ayuda u obtenerla antes de lo que lo habrían hecho de otra manera», refiere Johannes Heidecke, líder de sistemas de seguridad de OpenAI, a WIRED.
DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://es.wired.com/articulos/cientos-de-miles-de-usuarios-de-chatgpt-podrian-estar-mostrando-signos-de-crisis-psicotica-segun-openai





