Ensayos

¿Cuál es tu peso en megas?: Datos personales e inteligencia artificial en la era digital

En tiempos de incertidumbre política estas reflexiones se entrecruzan con el concepto de libertad, erigido como uno de los valores más preciados de nuestra sociedad, y con cómo empresas y gobiernos utilizan tecnología que recolecta datos e información sobre los individuos, en algunos casos con un discurso del bien común y, en otros casos, exponiendo sin tapujos beneficios empresariales.  Esta nota pretende traer estas reflexiones para cuestionarnos acerca de cuánto sabemos acerca de la protección de nuestros datos personales y cuanto reflexionamos acerca del concepto de libertad.

Vivimos en una era donde cada clic, cada búsqueda, cada “me gusta” alimenta un sistema que nos conoce mejor de lo que nos conocemos a nosotros mismos. Pero la pregunta que deberíamos hacernos no es cuánto saben de nosotros —eso ya es inquietante por sí solo— sino qué se está construyendo con esa información.

El nuevo petróleo

“Los datos son el petróleo del siglo XXI” se repite en distintos medios de comunicación, pero hay una diferencia fundamental: el petróleo hay que extraerlo con esfuerzo, recursos y costo. Nuestros datos, en cambio, los regalamos cada día sin pensarlo dos veces. ¿Cuántas veces hemos aceptado “términos y condiciones” sin leerlos? ¿Cuántas aplicaciones hemos descargado sin preguntarnos qué información estamos cediendo?

En Argentina, como en gran parte del mundo, actuamos con una combinación peligrosa de apatía e ingenuidad. Preferimos no saber quién está usando nuestros datos, por cuánto tiempo, ni qué beneficios obtiene de ellos. Es más fácil no pensar en ello cuando quien recolecta nuestra información nos ofrece servicios “gratuitos” donde pasamos horas de nuestro día, o cuando nos permite compartir nuestras alegrías y conectar con seres queridos.

Pero nada es realmente gratuito. Como usuarios de WhatsApp, Instagram, TikTok o Google, participamos del mismo ecosistema global de extracción de datos, con la desventaja adicional de que nuestras regulaciones locales suelen ir varios pasos atrás de la velocidad a la que avanzan estas tecnologías.

La inteligencia artificial: el nuevo jugador en la cancha

Si la recolección de datos para publicidad personalizada ya era preocupante, la irrupción de la inteligencia artificial ha llevado el problema a una dimensión completamente nueva. Según investigadoras de Stanford como Jennifer King y Caroline Meinhardt, la IA representa un punto de inflexión crítico en nuestra relación con la privacidad de datos (King & Meinhardt, 2024).

La IA necesita datos —cantidades masivas de ellos— para funcionar. Los sistemas de inteligencia artificial generativa como ChatGPT, Midjourney o los diversos modelos que están proliferando a nivel global, se entrenan con información recolectada de internet, a menudo sin el consentimiento explícito de quienes generaron ese contenido. Y aquí está el problema: una vez que tu información forma parte del dataset de entrenamiento de un modelo de IA, ¿cómo la recuperas? ¿Cómo ejerces tu derecho a ser olvidado cuando tu huella digital ya está integrada en las “neuronas” artificiales de un sistema?

King y Meinhardt argumentan que los sistemas de IA plantean riesgos únicos para la privacidad que se extienden más allá del nivel individual, agregándose para representar daños a nivel social que no pueden abordarse solo mediante el ejercicio de derechos individuales (King & Meinhardt, 2024, p. 19). Es decir: no se trata solo de que Google sepa tus gustos musicales o que Meta pueda predecir tus inclinaciones políticas. Se trata de que estos sistemas pueden influir en elecciones, perpetuar sesgos sociales, manipular comportamientos colectivos y erosionar las bases mismas de nuestras sociedades democráticas.

Hagamos memoria. Hace solo algunos años, y luego de un largo juicio, la empresa Cambridge Analytica cerró sus puertas tras el escándalo de filtración, venta y manejo espurio de datos personales que involucró al gigante de las redes sociales Facebook. Durante el juicio a las partes se sugirió el concepto de “cleptocracia digital”. Y se comprobó la utilización de estrategias de minería de datos para bombardear a un público influenciable con fake news en varias campañas electorales, favoreciendo la salida del Reino Unido de la Unión Europea y la elección de Macri en 2015 y Trump en 2016, entre otros hechos. ¿Qué hemos aprendido en este tiempo acerca de la fortaleza de los sistemas democráticos? En principio que es muy fácil manipularnos, y que la causa principal es nuestra apatía.

En Argentina, donde la Ley de Protección de Datos Personales (Ley 25.326) data de 2000 —una era geológica en términos tecnológicos—, estamos particularmente vulnerables. Mientras Europa ha implementado el GDPR (Reglamento General de Protección de Datos) y California ha establecido regulaciones estrictas, nosotros seguimos operando con un marco legal que fue diseñado antes de que existieran las redes sociales, mucho antes de la computación en la nube, y décadas antes de ChatGPT.

Hoy somos lo que las investigadoras de Stanford llaman sujetos de “capitalismo de vigilancia”: generamos datos constantemente, y esos datos tienen más valor de mercado que nuestro trabajo tradicional. Es posible que Google, Meta o cualquier otra plataforma tecnológica pueda definir nuestro perfil psicológico mejor que nuestros propios amigos o familiares. Según estudios citados por King y Meinhardt, estos perfiles se construyen a partir de miles de puntos de datos que dejamos dispersos por internet: búsquedas, compras, likes, ubicaciones, contactos, tiempo de permanencia en cada sitio (King & Meinhardt, 2024, p. 6). Una reconstrucción bastante confiable de nuestra identidad digital tal vez no pese más que algunos megas. Pero esos megas son oro para quienes saben cómo utilizarlos, especialmente ahora que la IA puede encontrar patrones, hacer predicciones y generar contenido personalizado a una escala que hace unos años parecía ciencia ficción.

¿Por dónde empezar?

El desafío no es menor, pero tampoco imposible. El primer paso es salir de la apatía y tomar conciencia. Herramientas como “Terms of Service; Didn’t Read” (tosdr.org) nos ayudan a entender qué estamos cediendo cuando damos “Aceptar” sin leer. Pero necesitamos ir más allá de las soluciones individuales.

King y Meinhardt proponen tres direcciones fundamentales: primero, denormalizar la recolección de datos por defecto, haciendo que el consentimiento sea la excepción y no la regla; segundo, poner el foco en la cadena de suministro de datos para la IA, exigiendo transparencia sobre qué datos se usan para entrenar estos sistemas; y tercero, invertir el guion sobre quién controla los datos personales, desarrollando nuevos mecanismos de gobernanza y infraestructura técnica que permitan a los individuos ejercer sus derechos de manera automatizada y efectiva (King & Meinhardt, 2024, pp. 31-45).

En Argentina, esto implicaría una actualización urgente de nuestro marco regulatorio. Necesitamos una ley de protección de datos que contemple la realidad de la IA, que establezca límites claros a la recolección y uso de información personal, y que cree organismos de control con verdadero poder de fiscalización y sanción. Necesitamos también alfabetización digital: que los ciudadanos comprendamos realmente qué significa nuestra huella digital y cómo protegerla.

Nuestro peso en Teras

La pregunta del título cobra ahora una nueva dimensión: no se trata solo de cuántos megas pesa nuestra identidad digital, sino de cuántos teras de datos colectivos estamos generando como sociedad, y quién tiene el poder sobre esa información.

A diferencia de los relatos de la Grecia clásica (mitos de Prometeo, Tántalo, Sísifo), aquí no hay un castigo divino impuesto desde afuera. El castigo —si queremos llamarlo así— es auto infligido: cada vez que aceptamos términos sin leer, cada vez que compartimos sin pensar, cada vez que elegimos la conveniencia sobre la privacidad, estamos construyendo las cadenas de nuestra propia vigilancia.

El desafío es encontrar el equilibrio: aprovechar estos avances sin sacrificar nuestra autonomía, nuestra privacidad y, en última instancia, nuestra libertad. Necesitamos despertar de la apatía y generar conciencia colectiva —una que efectivamente se mida en teras— sobre el valor real de nuestros datos y los riesgos de entregarlos sin reflexión.

El primer paso es preguntarnos: ¿cuál es nuestro peso en megas? Y más importante aún: ¿quién está calculando ese peso y para qué?

Referencias

  • King, J., & Meinhardt, C. (2024). Rethinking Privacy in the AI Era: Policy Provocations for a Data-Centric World. Stanford Institute for Human-Centered Artificial Intelligence. https://hai.stanford.edu/sites/default/files/2024-02/White-Paper-Rethinking-Privacy-AI-Era.pdf
  • Ley 25.326 de Protección de Datos Personales. (2000). Boletín Oficial de la República Argentina.
  • Terms of Service; Didn’t Read. (s.f.). https://tosdr.org
  • Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs.

Andrés Reinoso (Biblioteca Nacional Mariano Moreno / Instituto de Formación Técnica Superior N° 13 de Bibliotecología)

Dejar una respuesta