En medio de la polémica, X acaba de cambiar sus condiciones. La única manera de evitarlo es borrar la cuenta
Desde hoy 15 de noviembre, X tiene nuevos términos de servicio. No es una sorpresa, ya que se anunció el pasado mes de octubre, pero ya está activo, llega justo en medio de la polémica por el abandono de miles de usuarios y además su funcionamiento deja muy poco margen.
X va a entrenar a su IA con tus datos. Los nuevos términos ya se aplican a todos los usuarios, por defecto. No se necesita aceptar nada, simplemente la plataforma de Elon Musk ha avisado a todos. Entre los cambios, uno de los más relevantes es que se utilizarán nuestros mensajes, fotos y vídeos para entrenar a Grok, la inteligencia artificial de X.
Así es el párrafo donde se define:
«Usted acepta que esta licencia incluye el derecho de que (i) analicemos el texto y demás información que usted nos proporcione y de que proporcionemos, promocionemos y mejoremos los Servicios de cualquier otra manera; esto incluye, por ejemplo, el uso con nuestros modelos de aprendizaje automático e inteligencia artificial, ya sean generativos o de otro tipo, y el entrenamiento de dichos modelos»
Hay una opción para salirse (con matices). Aunque por defecto está activo, los usuarios disponemos de un permiso que podremos desmarcar para intentar evitar que se entrene su IA.
Para ello deberemos ir a Más opciones > Configuración y privacidad > Privacidad y seguridad > Grok > Intercambio y personalización de datos y desactivar la opción.
Con esto lo que haremos será pedir a X que nuestras interacciones con Grok y mensajes no se utilicen para el entrenamiento. Sin embargo, está en duda la utilidad real de esta opción.
Caso 1: si eres usuario de la Unión Europea. Los términos para los usuarios de la Unión Europea son los mismos. En este caso X explica que ha creado una vía para impugnar ciertas decisiones tomadas bajo la Ley de Servicios Digitales. Pero no es esto lo relevante aquí.
Aunque los términos de servicio admiten esta posibilidad, desde X se acordó con los organismos reguladores de protección de datos de la Unión Europea de que no se utilizarían los datos de los usuarios europeos para este propósito.
El Reglamento General de Protección de Datos obliga a solicitar expresamente el permiso para este uso adicional de los mensajes. Algo que no coincide con lo que quiere hacer X, que de base ha actualizado sus términos sin solicitar permiso expreso.
Caso 2: el resto. Para los usuarios fuera de la Unión Europea está la opción que hemos comentado antes de desmarcar la opción. Pero aquí es donde entra la polémica. En ningún momento de los términos de servicio se describe la posibilidad de dejar de entrenar a la IA. Es decir, aunque la aplicación ofrece la opción, esta no tiene base legal sólida ya que no aparece mencionada en los términos de servicio.
X ahora es de pago para investigadores. Otro cambio no relacionado es que ahora X cobra 15.000 dólares para aquellas cuentas que accedan a más de un millón de mensajes al día. Como suena. ¿Quién es capaz de algo así? Está claro que no un usuario. Sin embargo, muchos investigadores utilizan bots para analizar la conversación de la red y buscar posibles discursos de odio o encontrar relaciones entre usuarios. Ahora esos investigadores podrían recibir una multa por daños. Este movimiento ya ha sido criticado por la Universidad de Columbia y el Knight Institute.
A efectos prácticos es aceptarlo o borrar la cuenta. Los usuarios europeos parece que estamos a salvo de este entrenamiento porque los reguladores han forzado a X a paralizar sus intenciones, pero para la mayoría de usuarios son las nuevas reglas del juego. Pocas opciones quedan. O aceptamos que los mensajes van a ser utilizados para entrenar a la IA o directamente optamos por eliminar la cuenta.
En Xataka | Bluesky vs Threads vs Mastodon: comparativa de las tres principales alternativas a X / Twitter
–
La noticia
En medio de la polémica, X acaba de cambiar sus condiciones. La única manera de evitarlo es borrar la cuenta
fue publicada originalmente en
Xataka
por
Enrique Pérez
.