Anthropic, la empresa que le dio vida al chatbot Claude, está por meterle mano a su política de privacidad. ¿La razón? Quieren usar nuestras charlas con el bot para entrenar a sus modelos de lenguaje. Sí, leyó bien, sus desopilantes conversaciones sobre el precio del dólar o el último capítulo de la serie de moda podrían terminar dándole una mano a la inteligencia artificial.
Hasta ahora, Anthropic se había mantenido al margen de usar los chats de los usuarios para entrenar a sus modelos. Pero, como dice el tango, «todo cambia», y a partir del 8 de octubre, si no hacemos nada, nuestros nuevos registros de chat y tareas de codificación pasarán a engrosar la base de datos de entrenamiento de futuros Claudes.
¿Por qué este volantazo? Según explican en su blog, «los datos de las interacciones en el mundo real proporcionan información valiosa sobre qué respuestas son más útiles y precisas para los usuarios». En criollo, necesitan más material para que Claude no siga diciendo disparates.
El cambio estaba programado para el 28 de septiembre, pero lo patearon para adelante. Gabby Curtis, vocera de Anthropic, explicó que querían darles más tiempo a los usuarios para revisar la movida y asegurar una transición técnica sin sobresaltos. Digamos que les dio un poco de cosa el posible bardo.
¿Cómo evitar que Claude aprenda de mis conversaciones?
A los usuarios nuevos les preguntan durante el registro si quieren que sus datos sean utilizados para entrenar a Claude. Los que ya venían usando el bot quizás se hayan topado con una ventana emergente explicando los cambios.
«Permite el uso de tus chats y sesiones de codificación para entrenar y mejorar los modelos de IA de Anthropic», dice el cartelito. Por defecto, la opción viene activada, así que si le dieron «Aceptar» sin leer, ya saben.
La buena noticia es que todos podemos cambiar esto en la Configuración de privacidad. En el apartado Ayuda para mejorar Claude, hay que asegurarse de que el interruptor esté desactivado. Así, nuestras conversaciones quedarán a salvo de los algoritmos.
¿Qué pasa con los chats antiguos?
Si no optamos por no participar, la nueva política cubre todos los chats nuevos y los que volvamos a visitar. O sea, Anthropic no usará automáticamente todo nuestro historial, a menos que abramos un chat viejo y sigamos conversando. Después de esa interacción, ese chat vuelve a estar disponible para el entrenamiento. Es como cuando desempolvamos una vieja discusión familiar en la cena de Navidad.
Más tiempo de retención de datos
Para completar el combo, Anthropic también extendió el tiempo que guarda nuestros datos. Antes eran 30 días, ahora son cinco años, participemos o no del entrenamiento de modelos. ¿Qué harán con toda esa información? Solo el tiempo (y los algoritmos) lo dirán.
Anthropic, la empresa detrás del chatbot Claude, modificará su política de privacidad para utilizar las conversaciones de los usuarios como datos de entrenamiento para sus modelos de lenguaje. Los usuarios deberán optar por no participar si no desean que sus chats sean utilizados para este fin. El cambio, inicialmente previsto para septiembre, se implementará el 8 de octubre, permitiendo a los usuarios revisar y ajustar sus preferencias de privacidad. Además, Anthropic extenderá el tiempo de retención de datos de los usuarios a cinco años.
Resumen generado automáticamente por inteligencia artificial
Contenido humorístico generado por inteligencia artificial
Anthropic, la empresa que le dio vida al chatbot Claude, está por meterle mano a su política de privacidad. ¿La razón? Quieren usar nuestras charlas con el bot para entrenar a sus modelos de lenguaje. Sí, leyó bien, sus desopilantes conversaciones sobre el precio del dólar o el último capítulo de la serie de moda podrían terminar dándole una mano a la inteligencia artificial.
Hasta ahora, Anthropic se había mantenido al margen de usar los chats de los usuarios para entrenar a sus modelos. Pero, como dice el tango, «todo cambia», y a partir del 8 de octubre, si no hacemos nada, nuestros nuevos registros de chat y tareas de codificación pasarán a engrosar la base de datos de entrenamiento de futuros Claudes.
¿Por qué este volantazo? Según explican en su blog, «los datos de las interacciones en el mundo real proporcionan información valiosa sobre qué respuestas son más útiles y precisas para los usuarios». En criollo, necesitan más material para que Claude no siga diciendo disparates.
El cambio estaba programado para el 28 de septiembre, pero lo patearon para adelante. Gabby Curtis, vocera de Anthropic, explicó que querían darles más tiempo a los usuarios para revisar la movida y asegurar una transición técnica sin sobresaltos. Digamos que les dio un poco de cosa el posible bardo.
¿Cómo evitar que Claude aprenda de mis conversaciones?
A los usuarios nuevos les preguntan durante el registro si quieren que sus datos sean utilizados para entrenar a Claude. Los que ya venían usando el bot quizás se hayan topado con una ventana emergente explicando los cambios.
«Permite el uso de tus chats y sesiones de codificación para entrenar y mejorar los modelos de IA de Anthropic», dice el cartelito. Por defecto, la opción viene activada, así que si le dieron «Aceptar» sin leer, ya saben.
La buena noticia es que todos podemos cambiar esto en la Configuración de privacidad. En el apartado Ayuda para mejorar Claude, hay que asegurarse de que el interruptor esté desactivado. Así, nuestras conversaciones quedarán a salvo de los algoritmos.
¿Qué pasa con los chats antiguos?
Si no optamos por no participar, la nueva política cubre todos los chats nuevos y los que volvamos a visitar. O sea, Anthropic no usará automáticamente todo nuestro historial, a menos que abramos un chat viejo y sigamos conversando. Después de esa interacción, ese chat vuelve a estar disponible para el entrenamiento. Es como cuando desempolvamos una vieja discusión familiar en la cena de Navidad.
Más tiempo de retención de datos
Para completar el combo, Anthropic también extendió el tiempo que guarda nuestros datos. Antes eran 30 días, ahora son cinco años, participemos o no del entrenamiento de modelos. ¿Qué harán con toda esa información? Solo el tiempo (y los algoritmos) lo dirán.