No hay pruebas de que el ChatGPT erótico vaya a ser seguro, alerta exresponsable de riesgos de OpenAI

Cuando se escriba la historia de la IA, Steven Adler podría acabar siendo su Paul Revere militar, o al menos uno de ellos, en lo que respecta a la seguridad. El mes pasado, Adler, quien pasó cuatro años desempeñando diversas funciones de seguridad en OpenAI, escribió un artículo para The New York Times con un título bastante alarmante: I Led Product Safety at OpenAI. Don’t Trust Its Claims About «Erotica» (Dirigí la seguridad de productos en OpenAI. No te fíes de sus afirmaciones sobre la «erótica»). En él exponía los problemas a los que se enfrentaba OpenAI a la hora de permitir que los usuarios conversaran eróticamente con chatbots y, al mismo tiempo, protegerlos de cualquier impacto que esas interacciones pudieran tener en su salud mental.
«Nadie quería ser el policía de la moralidad, pero carecíamos de medios para medir y gestionar cuidadosamente el uso erótico. Decidimos que la erótica impulsada por IA tendría que esperar», se leía en el artículo. Adler decidió publicarlo porque Sam Altman, CEO de OpenAI, había anunciado recientemente que la compañía pronto permitiría «erótica para adultos verificados». En respuesta, Adler escribió que tenía «grandes dudas» sobre si OpenAI había hecho lo suficiente para, en palabras de Altman, «mitigar» las preocupaciones de salud mental en torno a cómo los usuarios interactúan con los chatbots de la compañía.
Después de leer el artículo de Adler, quise hablar con él. Aceptó amablemente reunirse en las oficinas de WIRED en San Francisco para conversar sobre su experiencia durante sus cuatro años en OpenAI, sobre el futuro de la seguridad de la IA y sobre el reto que esto plantea a las empresas que proporcionan grandes modelos de lenguaje (LLM) al mundo.
Esta entrevista ha sido editada para mayor extensión y claridad.
KATIE DRUMMOND: Antes de empezar, quiero aclarar dos cosas. La primera es que, por desgracia, no eres el mismo Steven Adler que tocaba la batería en Guns N’ Roses, ¿cierto?
STEVEN ADLER: Es correcto.
Bien, ese no eres tú. La segunda: has tenido una larga carrera en tecnología, específicamente en inteligencia artificial. Así que, antes de entrar en materia, cuéntame un poco sobre tu trayectoria y en qué has trabajado.
He trabajado en todo el sector de la inteligencia artificial, principalmente en temas relacionados con la seguridad. Durante los últimos cuatro años estuve en OpenAI, abordando todas las dimensiones posibles de la seguridad: desde cómo mejorar los productos para los usuarios y reducir riesgos, hasta cómo detectar si los sistemas de IA podrían volverse realmente peligrosos.
Antes de unirme a la empresa, trabajé en una organización llamada Partnership on AI, que analizaba la industria en su conjunto y se preguntaba: «Ante estos retos, algunos más amplios de lo que una sola empresa puede afrontar, ¿cómo podemos colaborar para definir los problemas, ponernos de acuerdo en que existen, trabajar en soluciones y, en última instancia, mejorar el panorama general?».
Ahora quiero hablar de tu posición en OpenAI. Dejaste la empresa a finales del año pasado. Antes de irte, dirigías la investigación y los programas relacionados con la seguridad. ¿En qué consistía ese puesto?
Mi trayectoria en OpenAI se dividió en varias etapas. Durante el primer tercio de mi tiempo allí lideré el área de seguridad de producto, lo que implicaba trabajar en GPT-3, uno de los primeros grandes productos de IA comercializados. Nos preguntábamos: ¿cómo establecer las reglas del juego para fomentar aplicaciones beneficiosas, evitando al mismo tiempo los riesgos que ya se vislumbraban?
Otros dos roles importantes que desempeñé fueron liderar el equipo de evaluación de capacidades peligrosas, encargado de definir cómo identificar cuándo los sistemas se volvían más riesgosos, cómo medirlo y qué medidas tomar al respecto, y abordar cuestiones generales sobre la preparación para la inteligencia artificial general (IAG). Observamos cómo internet comenzaba a transformarse y cómo los agentes de IA se estaban volviendo un concepto cada vez más popular. Aún no están completamente desarrollados, pero lo estarán. La gran pregunta era: ¿cómo nos preparamos para un mundo en el que OpenAI, o alguno de sus competidores, logre materializar esa visión tan ambiciosa que persiguen?
DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://es.wired.com/articulos/no-hay-pruebas-de-que-el-chatgpt-erotico-vaya-a-ser-seguro-alerta-exresponsable-de-riesgos-de-openai




