madrid
Actualizado:La última operación de Meta ha suscitado cierta preocupación entre los usuarios de Facebook e Instagram. La empresa ha anunciado recientemente que utilizará los datos que estas personas han colgado en sus plataformas para entrenar su nueva inteligencia artificial (IA), a no ser que expliciten lo contrario. Un movimiento que ha hecho emerger todo tipo de dudas y preguntas sobre la privacidad, la protección de datos o su impacto social. A su vez, ha abierto una oportunidad para reflexionar sobre la falta de consciencia que tienen los usuarios sobre el uso de sus datos en general, pero también sobre las maniobras normalizadas y ocultas del poder.
La polémica se ha intensificado en redes sociales, donde usuarios y expertos han expresado sus inquietudes. Muchos se preguntan hasta qué punto sus datos ya han sido utilizados sin su consentimiento y qué implicaciones tendrá esto en el futuro. Desde Meta se ha afirmado que buscan cumplir con las normativas de privacidad y protección de datos, pero la desconfianza persiste.
Los expertos explican que las empresas de inteligencia artificial generativa, que producen texto e imágenes, enfrentan un problema clave: necesitan enormes cantidades de datos para habituar sus modelos. "Las plataformas en general tienen este problema. Necesitan trillones de datos para entrenar sus inteligencias artificiales", explica Borja Adsuara, abogado experto en derecho digital. Esta necesidad de datos incluye no solo información generada por usuarios, sino también obras sujetas a derechos de autor.
Borja Adsuara considera que Meta debería pedir un "consentimiento específico" si quiere usar los datos de los usuarios para entrenar a su IA
También Joaquín Peña, profesor en la Universidad de Sevilla y fundador del Instituto de Digitalización Humanista, destaca que la situación actual no es exclusiva de Meta. "Todas las compañías de Inteligencia Artificial están entrenando a los algoritmos con información de Internet y con un nivel de control relativamente bajo", comenta. Esto implica que se están explotando datos de plataformas "sin discernir escrupulosamente qué información se utiliza", lo que ha llevado a conflictos legales como el de OpenAI con The New York Times.
En este sentido, Borja Adsuara advierte que muchos usuarios no son plenamente conscientes de hasta qué punto sus datos estaban siendo utilizados ya antes de que Meta diera este último giro. "Cuando te das de alta en una red social, le autorizas a la red social una licencia de uso de todos los contenidos que subes", aclara. Esta licencia permite a las plataformas modificar y explotar los contenidos, una cláusula que el profesor considera abusiva, pero que existe. La mayoría de los ciudadanos, sin embargo, tienen poco conocimiento sobre su alcance.
A su juicio, el problema no gira tanto en torno a si de aquí en adelante la foto de tu hijo pequeño aparecerá en un futuro en anuncios de pañales −cosa que ya adelanta que "no ocurrirá" porque las IAs generativas, explica, "producen contenidos inspirados o basados en otros, pero no los replican tal cual"−. Sino que la cuestión se sitúa en torno a si basta con que Meta dé la oportunidad a los usuarios de oponerse a que sus datos sean utilizados con ese fin o es necesario un consentimiento específico.
"Si usted va a tratar datos personales con un fin específico que es el de dirigir publicidad personalizada, como ocurre con las cookies, no vale un consentimiento genérico. Tú como usuario has podido aceptar las condiciones de uso de una red social, que ya implica bastantes cosas; pero si la plataforma quiere algo más, como dirigirte publicidad personalizada o entrenar su inteligencia artificial a partir de tus datos, tendrá que solicitar un consentimiento concreto para ello. No debería asumirse que una facultad implica la otra", argumenta Adsuara. Este problema se agrava con la falta de claridad en las regulaciones actuales. "La cosa no está clara porque ni el reglamento de inteligencia artificial lo resuelve ni la Ley de Propiedad Intelectual lo resuelve", señala.
Algo similar valora Peña: "Si nos vamos al reglamento general de protección de datos, el protocolo debería ser que yo acepte de manera feheciente que mis datos se usen para entrenar una IA. El que Meta haya anunciado que lo va a usar sin más, va un paso más allá".
Impacto en la propiedad intelectual
A falta de una regulación más exhaustiva y rigurosa sobre, por ejemplo, el uso de información protegida con derechos de autor, Borja Adsuara cuenta que la forma de proceder, tras varios litigios, está siendo la firma de convenios. De tal modo que las empresas que quieren usar esos datos deben pedir permiso y pagar a los titulares de las obras con las que entrenan la IA. En el caso de Meta, no se sabe muy bien cómo se actuará. Aunque su nueva herramienta de IA, como se ha detallado, no debería reproducir las obras originales, su entrenamiento implicará el uso de estas obras sin compensación directa a los creadores.
En este contexto, Esther Paniagua, analista especializada en ciencia y tecnología, advierte que "ya sabemos que otros sistemas de IA generativa han sido denunciados por plagiar contenidos y violar los derechos de autor por usar obras protegidas", lo cual también genera "un problema de competencia desleal y posible impacto en las condiciones de trabajo de los creadores". Está por ver "hasta qué punto Meta va a incurrir en violaciones de propiedad intelectual del contenido publicado en sus plataformas", expresa.
Joaquín Peña: "Hay que pensar que las IA pueden tener muchas ventajas, nos pueden ayudar; pero también hay que hacer balance de los inconvenientes"
Por su parte, Joaquín Peña subraya la necesidad de reevaluar las leyes de copyright y privacidad. "Quizá son normas que ya ni siquiera tienen sentido. Es como si tomas a una persona de la Edad Media y la sueltas aquí en la actualidad. Es como si intentas aplicar normas obsoletas," sugiere.
Para Peña, por otra parte, el tema de la privacidad es una cuestión cultural. "En China, por ejemplo, está muy normalizado que haya videovigilancia por las calles, se asocia con la seguridad y la comodidad. Aquí en Occidente es distinto. Hay que pensar que las IA pueden tener muchas ventajas, nos pueden ayudar; pero también hay que hacer balance de los inconvenientes porque al final quienes poseen esta información son las compañías. Esto les da una capacidad de control del mundo sin precedentes", explica.
Desinformación y manipulación
El impacto potencial de entrenar IA con datos de usuarios, no obstante, va más allá de la privacidad y la propiedad intelectual. Existe el riesgo de que estas tecnologías se utilicen para crear contenido que influya en la opinión pública y los comportamientos de los usuarios, como ya ocurrió con Cambridge Analytica. El escándalo puso de relieve la vulnerabilidad de los datos personales en la era digital y cómo la información puede ser explotada para interferir procesos democráticos.
Al respecto, aunque Borja Adsuara opina que las grandes plataformas, hiper vigiladas, "no se arriesgarán a hacer un mal uso de las obras y datos de sus usuarios", reconoce que "siempre existe el riesgo de aplicaciones de terceros −al estilo de FaceApp− utilicen estos datos de manera irresponsable". Ya han surgido algunos problemas en este aspecto relacionados con la creación de contenido pornográfico a través de deepfakes.
El perfeccionamiento del "capitalismo de la vigilancia"
Desde un punto de vista aún más crítico, Marta Peirano, periodista y experta en tecnología, añade que el impacto de la decisión de la empresa de Mark Zuckerberg es doble: "Primero, porque demuestra que el modelo de extracción de datos sin supervisión directa de las autoridades funciona. En Europa todavía no han pagado ninguna de las multas que les han puesto por infracción de derechos de protección de datos".
Marta Peirano: "El modelo que están entrenando habrá digerido las rutinas, aspiraciones, inquietudes y miedos de miles de millones de usuarios"
Además, Peirano advierte sobre las implicaciones a largo plazo: "El modelo que están entrenando habrá digerido las rutinas, aspiraciones, inquietudes y miedos de miles de millones de usuarios. Esa máquina de reconocimiento de patrones está al servicio de los gigantes de la industria de la manipulación".
Para la especialista, estas empresas tecnológicas, que en realidad son "empresas publicitarias", han avanzado en su capacidad de influir en los usuarios. "Su manera de influir hasta ahora ha sido comisariando nuestra visión del mundo, creando una burbuja de noticias, usuarios y vídeos que está diseñada para avanzar sus intereses publicitarios. Ahora, gracias a los asistentes virtuales y los modelos de IA, nos van a hablar literalmente al oído. Es el perfeccionamiento del modelo de extracción de datos para la manipulación de masas que llamamos capitalismo de la vigilancia, con un cambio de interfaz", detalla.
Aunque es posible que, como consecuencia, algunos usuarios, tal y como apunta Esther Paniagua, decidan compartir menos contenido y den lugar a un nuevo efecto #DeleteFacebook, la autora se mantiene "escéptica respecto a que tenga un impacto de gran magnitud".
"Es posible que suceda algo similar a lo que pasa con la obligación de pago para evitar la recopilación de datos personales para publicidad personalizada: si bien la mayoría de los usuarios no quieren ser rastreados, cuando se les pide pagar para evitarlo, no lo hacen. Según datos recogidos por Noyb, solo entre un 3% y un 10% de los usuarios quiere anuncios personalizados, pero el 99,9 % los consiente si la única alternativa es pagar, aunque sea una cantidad inferior a dos euros", señala Paniagua.
¿Te ha resultado interesante esta noticia?
Comentarios
<% if(canWriteComments) { %> <% } %>Comentarios:
<% if(_.allKeys(comments).length > 0) { %> <% _.each(comments, function(comment) { %>-
<% if(comment.user.image) { %>
<% } else { %>
<%= comment.user.firstLetter %>
<% } %>
<%= comment.user.username %>
<%= comment.published %>
<%= comment.dateTime %>
<%= comment.text %>
Responder
<% if(_.allKeys(comment.children.models).length > 0) { %>
<% }); %>
<% } else { %>
- No hay comentarios para esta noticia.
<% } %>
Mostrar más comentarios<% _.each(comment.children.models, function(children) { %> <% children = children.toJSON() %>-
<% if(children.user.image) { %>
<% } else { %>
<%= children.user.firstLetter %>
<% } %>
<% if(children.parent.id != comment.id) { %>
en respuesta a <%= children.parent.username %>
<% } %>
<%= children.user.username %>
<%= children.published %>
<%= children.dateTime %>
<%= children.text %>
Responder
<% }); %>
<% } %> <% if(canWriteComments) { %> <% } %>