Comience pronto a entrenar su modelo de IA de Claude con sus datos: aquí le mostramos cómo cancelar la suscripción antes de la fecha límite

Lo que debes hacer para decir "no"

Anthropic, una empresa desarrolladora de inteligencia artificial, está llevando a cabo... Claude... está implementando un cambio fundamental en la gestión de los datos de los usuarios. A partir de hoy, los usuarios de Claude deberán elegir entre permitir que Anthropic use sus conversaciones para entrenar futuros modelos de IA o rechazar la opción y mantener la privacidad de sus datos. Si no se deciden antes del 28 de septiembre de 2025, perderán el acceso a Claude por completo.

Claude en la computadora portátil

Anteriormente, Anthropic priorizaba la privacidad, lo que significaba que tus chats y tokens se eliminaban automáticamente después de 30 días, a menos que lo exigiera la ley. Sin embargo, a partir de hoy, a menos que optes por no participar, tus datos se almacenarán hasta cinco años y se utilizarán en sesiones de entrenamiento para ayudar a Claude a ser más inteligente.

La nueva política se aplica a todos los planes, incluidos los planes Free, Pro y Max, así como a Cloud Code dentro de estos niveles. Los usuarios de empresas, gobiernos, educación y API no se ven afectados.

Mecanismo de acción

Al registrarse, los nuevos usuarios podrán consentir el uso de sus datos para mejorar el rendimiento del modelo de IA de Claude. Los usuarios existentes verán una ventana emergente titulada "Actualizaciones de los Términos y Políticas del Consumidor". Al pulsar el botón azul grande "Aceptar", se aceptará automáticamente, mientras que un interruptor más pequeño permite desactivar esta función.

Si ignoras esta ventana, Claude dejará de funcionar después del 28 de septiembre. Es importante tener en cuenta que este cambio solo afecta a las conversaciones y al código futuros. Todo lo que hayas escrito anteriormente solo se usará si vuelves a abrir esas conversaciones. Y si eliminas una conversación, no se usará para el entrenamiento.

Puede cambiar su decisión más adelante en su configuración de privacidad. Sin embargo, una vez que los datos se utilizan para el entrenamiento, no se pueden recuperar. Es importante comprender este mecanismo para proteger su privacidad y sus datos al usar la nube.

¿Por qué Anthropic está realizando este cambio?

Dario Amodei, director ejecutivo de Anthropic

Anthropic afirma que los datos de los usuarios son esenciales para mejorar el rendimiento de su modelo de lenguaje Claude en diversas áreas, desde la codificación de vibraciones y la programación tradicional hasta las capacidades de inferencia y el mantenimiento de los estándares de seguridad. Anthropic enfatiza que no vende estos datos a terceros y, en su lugar, utiliza filtros automatizados para eliminar información confidencial antes de usarla para entrenar sus modelos.

Sin embargo, este cambio representa un cambio en el equilibrio de la privacidad, pasando de la privacidad predeterminada al intercambio de datos predeterminado, a menos que el usuario se oponga explícitamente. En otras palabras, sus datos se recopilarán y utilizarán de forma predeterminada para mejorar Claude, y deberá tomar medidas para detenerlo si prefiere no compartirlos. Este cambio busca mejorar las capacidades de IA de Claude aprovechando los datos de los usuarios, a la vez que refuerza el compromiso de Anthropic con la protección de la privacidad del usuario mediante mecanismos de filtrado de datos sensibles.

¿Cual es tu elección?

La decisión de Anthropic de poner a Claude en un camino más rápido para mejorar los datos del mundo real con los que se entrena significa que cuanto mejor sea el modelo al responder preguntas complejas, escribir código y evitar errores, más avanzará la IA.

Sin embargo, este progreso se produce a costa de los usuarios, que ahora pueden convertirse en parte de un conjunto de entrenamiento y tener sus datos almacenados durante años en lugar de semanas.

Para el usuario promedio, esto puede no parecer gran cosa. Pero para quienes se preocupan por su privacidad, o para quienes comparten proyectos de trabajo, asuntos personales o información confidencial en la nube, esta actualización podría ser una señal de alerta.

Con la configuración predeterminada habilitada, ahora es su responsabilidad deshabilitar esta opción si desea mantener sus datos privados.

Los comentarios están cerrados.