Tecnología

Cómo evitar que Anthropic use tus chats con Claude para entrenar su IA

Anthropic está dispuesta a reutilizar las conversaciones de los usuarios con su chatbot Claude como datos de entrenamiento para sus grandes modelos de lenguaje, a menos que los usuarios opten por no hacerlo.

Hasta ahora, la empresa no entrenaba sus modelos generativos de IA con los chats de los usuarios. Ahora, cuando la política de privacidad de Anthropic se actualice el 8 de octubre para permitirlo, los usuarios tendrán que optar por no hacerlo o, de lo contrario, sus nuevos registros de chat y tareas de codificación se utilizarán para entrenar futuros modelos de Anthropic.

¿A qué se debe este cambio? «Todos los grandes modelos de lenguaje, como Claude, se entrenan utilizando grandes cantidades de datos», indica parte del blog de Anthropic que explica por qué la empresa ha hecho este cambio de política. «Los datos de las interacciones en el mundo real proporcionan información valiosa sobre qué respuestas son más útiles y precisas para los usuarios». Con más datos de los usuarios arrojados a la licuadora de los LLM, los desarrolladores de Anthropic esperan hacer una mejor versión de su chatbot con el tiempo.

El cambio estaba previsto inicialmente para el 28 de septiembre, pero se retrasó. «Queríamos dar a los usuarios más tiempo para revisar esta elección y asegurarnos de que tenemos una transición técnica sin problemas», escribió Gabby Curtis, portavoz de Anthropic, en un correo electrónico a WIRED.

Cómo darse de baja

A los nuevos usuarios se les pide que tomen una decisión sobre sus datos de chat durante el proceso de registro. Es posible que los usuarios actuales de Claude ya se hayan encontrado con una ventana emergente en la que se explican los cambios en las condiciones de Anthropic.

«Permite el uso de tus chats y sesiones de codificación para entrenar y mejorar los modelos de IA de Anthropic», se lee. La opción de proporcionar tus datos a Anthropic para entrenar a Claude está activada automáticamente, por lo que los usuarios que decidieron aceptar las actualizaciones sin hacer clic en esa opción están incluidos en la nueva política de entrenamiento.

Todos los usuarios pueden activar o desactivar el entrenamiento de conversación en la Configuración de privacidad. En el apartado Ayuda para mejorar Claude, asegúrate de que el interruptor está desactivado y a la izquierda si prefieres que tus conversaciones con Claude no entrenen a los nuevos modelos de Anthropic.

Si un usuario no opta por no participar en el entrenamiento de modelos, entonces la política de entrenamiento modificada cubre todos los chats nuevos y revisitados. Esto significa que Anthropic no entrenará automáticamente su próximo modelo en todo tu historial de chats, a menos que vuelvas a los archivos y reanudes una conversación antigua. Después de la interacción, ese antiguo chat se vuelve a abrir y es válido para futuros entrenamientos.

La nueva política de privacidad también viene acompañada de una ampliación de las políticas de retención de datos de Anthropic. Anthropic ha aumentado el tiempo de conservación de los datos de los usuarios de 30 días en la mayoría de los casos a cinco años, independientemente de que los usuarios permitan o no el entrenamiento con modelos en sus conversaciones.

DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://es.wired.com/articulos/como-evitar-que-anthropic-use-tus-chats-con-claude-para-entrenar-su-ia

Publicaciones relacionadas

Botón volver arriba