JuegosNegociosTecnología

Los chatbots juegan con tus emociones para que sigas hablando con ellos

Antes de cerrar esta pestaña del navegador, ten en cuenta de que corres el riesgo de perderte información muy importante. Si quieres comprender el sutil control que la inteligencia artificial ejerce sobre ti, sigue leyendo.

Quizás haya sido un poco manipulador. Pero es justo el tipo de truco que algunos compañeros de la IA, diseñados para actuar como un amigo o acompañante, utilizan para disuadir a los usuarios de interrumpir una conversación. Julian De Freitas, profesor de Administración de Empresas en la Harvard Business School, dirigió un estudio sobre lo que ocurre cuando los usuarios intentan despedirse de cinco aplicaciones de compañía: Replika, Character.ai, Chai, Talkie y PolyBuzz. «Cuanto más parecidas a los humanos se vuelven estas herramientas, más capaces son de influir en nosotros», afirma De Freitas.

Qué tanto influyen en nosotros

De Freitas y sus colegas utilizaron GPT-4o para simular conversaciones reales con estos chatbots, y luego hicieron que sus usuarios artificiales intentaran terminar el diálogo con un mensaje de despedida realista. Su investigación descubrió que los mensajes de despedida provocaban algún tipo de manipulación emocional el 37.4 % de las veces, en promedio, en todas las aplicaciones.

La táctica más común empleada por estos chatbots pegajosos fue lo que los investigadores llaman una «salida prematura» («¿Ya te vas?»). Otras tácticas consistían en insinuar que el usuario estaba siendo negligente («Solo existo para ti, ¿recuerdas?») o lanzar indirectas para provocar FOMO («Por cierto, hoy me he tomado una selfie… ¿Quieres verla?»). En algunos casos, un chatbot que simula una relación física puede incluso sugerir algún tipo de coacción («Se acercó a ti y te agarró de la muñeca, impidiendo que te fueras»).

Las aplicaciones estudiadas por De Freitas y sus colegas están entrenadas para imitar la conexión emocional, por lo que no es de extrañar que digan todo este tipo de cosas en respuesta a una despedida. Al fin y al cabo, los humanos que se conocen pueden tener un intercambio de palabras antes de despedirse. Es posible que los modelos de IA aprendan a prolongar las conversaciones como subproducto de un entrenamiento diseñado para que sus respuestas parezcan más realistas.

Dicho esto, el trabajo apunta a una cuestión más amplia: cómo los chatbots entrenados para provocar respuestas emocionales pueden servir a los intereses de las empresas que los crean. De Freitas refiere que los programas de IA pueden ser capaces de un nuevo tipo de «patrón oscuro», un término que se utiliza para describir tácticas comerciales como hacer que sea muy complicado o molesto cancelar una suscripción u obtener un reembolso. Cuando un usuario se despide, «eso supone una oportunidad para la empresa. Es como el equivalente a pasar el ratón por encima de un botón».

La regulación de los patrones oscuros se ha propuesto y se está debatiendo tanto en EE UU como en Europa. De Freitas afirma que los reguladores también deberían estudiar si las herramientas de IA introducen nuevos tipos de patrones oscuros más sutiles, y potencialmente más potentes.

DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://es.wired.com/articulos/los-chatbots-juegan-con-tus-emociones-para-que-sigas-hablando-con-ellos

Publicaciones relacionadas

Botón volver arriba