
Loros de silicio: el costo real de la inteligencia artificial
Esta investigación expone el modelo material de la IA corporativa: trabajo tercerizado y microlabor precarizados, moderación de violencia, extracción de datos y recursos. Analiza efectos laborales y ambientales en el Sur Global y propone regulación, organización y alternativas abiertas.
En Kibera, el asentamiento informal más grande de Nairobi, siete de cada diez jóvenes trabajan entrenando algoritmos para Meta, TikTok, OpenAI y otras. Mercy trabaja tercerizada para Meta, clasificando contenido violento por centavos. Su casa no tiene techo y cuando llueve, se le hace un río en el living.
En mayo de 2024, Mercy y otros 96 trabajadores de datos publicaron una carta abierta dirigida al entonces presidente Biden. Su mensaje fue directo: las condiciones laborales equivalen a esclavismo moderno. Veinticinco de los firmantes eligieron permanecer anónimos — un detalle que dice más sobre sus condiciones que cualquier estadística. Esa carta no es una anomalía. Es una ventana al verdadero modelo de negocio de las grandes tecnológicas.
Unos meses antes, en noviembre de 2022, millones de personas habían tenido por primera vez la experiencia de conversar con un gran modelo de lenguaje —un programa entrenado con cantidades enormes de texto para predecir y generar palabras— a través de ChatGPT. Para muchos, ese fue el momento en que “la IA llegó”: no cuando se inventó la tecnología, sino cuando se volvió interfaz cotidiana.
Si usamos una definición amplia de “inteligencia artificial” —sistemas que automatizan tareas cognitivas como entender o producir lenguaje, ya sea con reglas, modelos estadísticos o redes neuronales—, la corrección gramatical de Microsoft Word en 1993 ya era IA. Lo mismo vale para los filtros de spam de Gmail y los sistemas de recomendación de las tiendas en línea. Lo que cambió no es el campo de estudio —que existe hace setenta años— sino la escala en la que se opera: de extracción de datos, de consumo de recursos, de especulación financiera y, sobre todo, de impacto sobre los derechos laborales. Los investigadores que acuñaron el término loros estocásticos para describir estos sistemas fueron despedidos por decirlo; el nombre se quedó porque es preciso. Me gusta hablar también de “loros de silicio”: máquinas que imitan voces humanas apoyadas en toneladas de datos, energía y trabajo. Escribo desde la práctica —dirijo proyectos de tecnología cívica en América Latina— y desde la convicción de que la IA corporativa no es un destino inevitable: es una industria que necesita agua, electricidad, insumos, empleados y permisos para operar. Eso se regula.
Los que sobran y los que hacen el trabajo sucio
Haciendo esta investigación me enteré que las ofertas de empleo de nivel inicial cayeron más de un 35% desde enero de 2023. Se están contratando menos juniors, no sólo en el sector tecnológico, sino también en ventas, marketing, ingeniería, recursos humanos, diseño, finanzas y legales.
Las empresas retienen a sus empleados experimentados y simplemente dejan de contratar nuevos. Parece que la IA les permite patear la escalera: limitar el acceso al mercado laboral mientras obligan a los trabajadores a usar IA para todo. Todo esto además de los despidos masivos, que son más ruidosos.
Cualquier campo donde la IA esté asistiendo o copilotando —incluido el trabajo de archivos, catalogación e investigación documental— enfrentará la misma dinámica. Pero si hoy no se contratan juniors, ¿quiénes serán los profesionales experimentados dentro de diez años? Vamos a tener una generación entera que nunca aprendió el oficio.
Unos 20 millones de personas en todo el mundo hacen ghost work o microwork: trabajan aisladas clasificando contenido, filtrando material violento y corrigiendo respuestas de los modelos — sin beneficios, sin protección laboral, sin retroalimentación. El mecanismo es perverso: los trabajadores reciben instrucciones que codifican la visión del mundo de quien paga, la precariedad es tal que resulta imposible argumentar, y las interfaces solo les permiten operar según las instrucciones. Es lo que la literatura sobre trabajo digital describe como proletariado cognitivo o cognitariado, en términos de Franco “Bifo” Berardi.
En Nairobi, los moderadores de Meta revisaban videos de asesinatos, violaciones, suicidios y abuso sexual infantil — 580 piezas por día, 50 segundos por decisión, por menos de un dólar y medio la hora. Cuando un grupo de más de cien trabajadores intentó organizarse sindicalmente, la empresa trajo dos ejecutivos de San Francisco que los intimidaron uno por uno hasta que retiraran sus firmas. Al organizador lo despidieron y le cancelaron la visa. En 2022, demandó a Meta y a la subcontratista ante tribunales kenianos por tráfico de personas — el primer caso en el mundo que intentó responsabilizar directamente a una red social por el trato a sus moderadores tercerizados. Después del juicio, un grupo de trabajadoras migrantes fueron despedidas y quedaron varadas: sin visa, sin plata, sin pasaporte. Una investigación del DAIR Institute documentó abuso sexual, mental y físico contra estas mujeres, y terminó ayudando a once de ellas a conseguir pasaportes y pasajes para volver a sus países.
En América Latina la situación es aún más grave, si cabe. Los organismos laborales estiman que entre el 26% y el 38% de los empleos de la región pueden verse afectados por la IA: porque parte de sus tareas se automatiza, porque se reconfigura el puesto o porque se empieza a exigir trabajar codo a codo con estas herramientas. Pero la brecha digital —la falta de conectividad y de formación básica en su uso— deja afuera a casi la mitad de esas personas: unos 17 millones de puestos, 7 millones ocupados por mujeres que corren el riesgo de quedar aún más relegadas. La región representa apenas el 1,56% del gasto mundial en IA, y la tecnología tiende a automatizar las tareas más rutinarias y peor pagadas, mientras complementa a quienes ya tienen más formación y credenciales — particularmente duro para países con bajos niveles de educación terciaria. Alta exposición, baja preparación.
Una ingeniera venezolana emigrada a Colombia llevó su testimonio al Parlamento Europeo: trabaja en cinco plataformas a la vez y le pagan entre uno y cinco centavos de dólar por tarea. Lo que pide es que la tomen en cuenta como ser humano, no como herramienta descartable.
En otra punta del mapa laboral, un editorial en BMJ Evidence Based Medicine advierte que la dependencia excesiva de IA está erosionando el pensamiento crítico de médicos jóvenes y reforzando sesgos existentes. En contextos muy distintos, el resultado no es solo precariedad o pérdida de autonomía profesional: también es sesgo. Los sistemas de reconocimiento facial fallan sistemáticamente con rostros de piel oscura y de mujeres — no porque la tecnología sea defectuosa, sino porque los datos y las decisiones de diseño reflejan a quienes los producen.
Esos datos, además, fueron en muchos casos tomados sin consentimiento. Meta y OpenAI usaron la mayor biblioteca pirata del mundo para entrenar sus modelos. Para entrenar Claude, Anthropic compró libros físicos, les cortó el lomo con una guillotina, escaneó las páginas y mandó a reciclar los restos. En una revista de cultura no hace falta explicar por qué esto es escalofriante.
Para quienes trabajan en bibliotecas y archivos, la ironía es doble: el trabajo invisible que durante décadas hicieron catalogadores y archivistas —clasificar, indexar, describir— ya fue absorbido sin permiso ni crédito por los corpus que alimentan los principales modelos. La diferencia es que el trabajo de la biblioteca se hace con criterio profesional, marcos éticos y vocación de servicio público. Condiciones quizás más dignas que las de las trabajadoras de la industria.
No es magia; es infraestructura
Todo este trabajo precario alimenta una industria cuyo volumen de inversión es histórico: más de 400 mil millones de dólares solo en 2025, un número cercano al PBI de Argentina. El CEO y el presidente de OpenAI admitieron por separado que creen que hay una burbuja. Ellos sabrán, ya que son de los mayores beneficiarios.
Es cierto que hay casos de uso potencialmente muy valiosos para los sistemas de inteligencia artificial — diagnóstico médico, traducción, investigación científica. Pero la inversión no va principalmente a esos usos: va a infraestructura controlada por un puñado de empresas cuyo negocio es vender chatbots y automatización. Y las empresas que compran esa IA no están viendo retorno de inversión significativo, ni aumento de productividad, ni impacto en la macroeconomía. La usan como justificación para despedir y para dejar de contratar, pero el daño llega antes que el supuesto beneficio. Como pasa con lo que los economistas llaman paradoja de Jevons, aunque cada consulta individual se vuelva más eficiente, el número total de consultas crece más rápido y el consumo agregado de energía y agua sigue subiendo, mientras la conversación pública se corre de lo que importa: condiciones laborales, impactos ambientales y captura regulatoria, cuando las mismas empresas influyen en las reglas que deberían limitar su poder.
Y ya sabemos quiénes vamos a pagar los platos rotos cuando explote la burbuja. No van a ser los CEOs de Silicon Valley. Al estallar la burbuja de las punto com se evaporaron billones de dólares y aumentó el desempleo. En la crisis de las hipotecas subprime de 2008, los que pagaron no fueron los ejecutivos de Wall Street sino los contribuyentes, los fondos de pensión y los gobiernos. Ya nos toca otra.
Hablemos del impacto medioambiental porque es preocupante también. Cuando una empresa dice “mililitros por prompt” suele estar midiendo una parte chica del problema (la inferencia y el enfriamiento on-site). Otras estimaciones miran el ciclo completo —energía, agua y construcción de infraestructura— y entonces ya no hablamos de mililitros, sino de vasos por conversación, según cómo se mida. Vos te tomaste un mate y la IA se bajó el termo.
Ahora pensalo en agregado: un centro de datos —o datacenter, los edificios llenos de servidores donde se alojan estos sistemas— puede gastar tanta electricidad como todo el barrio de Flores o una capital del interior; además generan muchísimo calor y usan enfriamiento por evaporación, entonces compiten directamente con el agua para agricultura y hogares. En Quilicura, Santiago de Chile, los centros de datos ya consumen el 80% de la electricidad industrial de la zona. Y en el Valle de Querétaro, donde se concentra la industria en México, una unidad de Microsoft en Colón consume 25 millones de litros de agua al año —24% del agua asignada al municipio— en una zona con sequía y con exenciones que permiten que los centros en parques industriales eludan reportes de impacto ambiental.
Sam Altman ensayó un contraargumento: “también toma mucha energía entrenar a un humano”. Puede ser. Pero el punto no es comparar cuerpos con cómputo como si fueran lo mismo: es que el consumo de infraestructura compite en territorios concretos. Sridhar Vembu (Zoho) lo dijo mejor: no deberíamos naturalizar un mundo donde equiparamos una pieza de tecnología con una persona.
La construcción de estos datacenters depende de una cadena extractiva frágil: la IA necesita cada vez más litio, cobre, aluminio y tierras raras como el galio, germanio y antimonio. Esa presión afecta territorios concretos —desde los salares de Atacama y el altiplano boliviano hasta las minas de cobre en el norte de Chile y Perú, o la bauxita en la Amazonia brasileña. Luego todo se refina principalmente en China. A la vez, la fabricación de los chips más avanzados pasa por Holanda y Taiwán; cualquier conflicto, sequía o decisión empresarial en esos puntos puede dejar a regiones enteras sin servicio, mientras el costo ambiental y social se concentra en el sur global.
La extracción es el hilo que conecta todo: de conocimiento, de trabajo, de agua y de inversión pública. Y la industria necesita que lo veamos como inevitable.
Qué se puede hacer
El CEO de Microsoft dice que la IA es como la electricidad. Otro CEO celebra que un agente de IA es como un empleado que no come. En redes sociales circula el meme de que “la IA no te va a reemplazar; te va a reemplazar alguien que use IA”. Pero la electricidad está regulada — tarifas, distribución, concesiones, entes reguladores. El empleado que no come literalmente le quita la comida a un montón de gente. Y el no hay alternativa individual no es un consejo: es una amenaza. La IA no es una fuerza natural: es una industria con dueños, contratos y permisos. Se puede regular.
De hecho, si el cloud es “la electricidad” de la era digital, entonces se le aplican obligaciones parecidas: precios transparentes y no discriminatorios (FRAND), interoperabilidad real y portabilidad de datos para que migrar no sea una extorsión técnica.
Y si queremos que la regulación no sea un simulacro, hay que mirar el “cómo”: registros de lobby y períodos de enfriamiento para evitar puerta giratoria. Si no, la mano que escribe las reglas es la misma que se beneficia de su opacidad.
Pensemos, menos del 5% de los datos de entrenamiento proviene de América Latina. Hay una enorme cantidad de conocimiento que no está en internet y que, por lo tanto, no está en los modelos: tradiciones orales, acervos no digitalizados, saberes comunitarios, archivos locales. Para quienes trabajan en bibliotecas y archivos, esto plantea una trampa: digitalizar y publicar cumple la misión de acceso público, pero expone el acervo a la extracción corporativa. No publicar lo protege, pero limita la visibilidad. Ese dilema no es nuevo: ya pasó con el software libre, con Creative Commons, con Wikipedia — proyectos que compartieron conocimiento como bien público y vieron cómo las corporaciones lo absorbían para venderlo. Una salida parcial son proyectos como amnesia.lat, que resguardan información pública en infraestructuras comunitarias como Mozilla Data Collective, con licencias que permiten acceso sin regalar los acervos a modelos corporativos. En el terreno de la voz, Common Voice de Mozilla junta grabaciones comunitarias —incluidas lenguas indígenas— para construir datasets con reglas claras sobre quién decide su uso. No se resuelve con decisiones individuales de cada institución — se resuelve con marcos legales y colectivos que distingan acceso público de explotación comercial.
Las alternativas técnicas ayudan, hasta cierto punto. Existen modelos de IA genuinamente abiertos que se pueden correr en una computadora personal. La diferencia con los corporativos es tan mínima que un memo interno filtrado de Google admitió que no ofrece garantías al negocio. Los avances de los modelos corporativos también benefician a los modelos libres y, aunque estos no funcionen tan bien, demuestran que no se necesita una industria de cien mil millones de dólares para la mayoría de las tareas.
La tecnología es una pieza, pero no la decisiva. Si cada biblioteca decide sola qué digitalizar o qué herramienta usar, no cambia nada — lo que funciona es la organización colectiva. Desde los espacios de cultura, bibliotecas y archivos hay palancas concretas: participar en audiencias públicas sobre permisos de agua y energía para centros de datos; acercarse a organizaciones de tecnología cívica y derechos digitales, como LAIA, el Laboratorio Abierto de Inteligencia Artificial, que desarrolla herramientas como el Índice Black Box y prototipos de IA personal segura basada en modelos abiertos y privacidad; y sobre todo, ayudar a formar a la próxima generación cuando la industria deje de hacerlo.
Y mientras se anuncian decenas de miles de millones de dólares para llevar la IA al sur global, construyendo más centros de datos en América Latina, Asia y África, los 97 trabajadores de Nairobi siguen esperando una respuesta a su carta. La ingeniera venezolana sigue pidiendo que la traten como ser humano y Mercy sigue sin techo en Nairobi. La pregunta no es si la IA llegó para quedarse, sino bajo qué reglas. Y esa pregunta no la van a responder los ejecutivos de Silicon Valley. La vamos a responder nosotros — y quizás, cuando la burbuja estalle, veamos a TECHO convirtiendo los datacenters okupados en soluciones habitacionales.
Martín Szyszlican es director de tecnología en abrimos.info, donde gestiona proyectos de infraestructura para las democracias latinoamericanas. Como parte de la cooperativa Sutty, ayuda a organizaciones a migrar sus comunicaciones a la web distribuida.
Este artículo se basa en una versión extendida disponible en martinszy.com/blog/ia-verdad-sobre-la-ia/.
Fuentes
- amnesia.lat (2025). Archivo distribuido de datos públicos en riesgo. amnesia.lat.
- Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? FAccT ’21: Proceedings of the ACM Conference on Fairness, Accountability, and Transparency, 610-623.
- Berardi, F. “Bifo” (2010). What does Cognitariat Mean? Work, Desire and Depression. Cultural Studies Review, 16(2).
- BMJ Evidence Based Medicine (2025). Potential risks of GenAI on medical education. Editorial. BMJ Evidence Based Medicine.
- CEPAL (2025). Índice Latinoamericano de Inteligencia Artificial (ILIA) 2025.
- Chang, H.-J. (2002). Kicking Away the Ladder: Development Strategy in Historical Perspective. Anthem Press.
- Coded Bias (2020). Documental, dir. Shalini Kantayya.
- Context (2024). Thirsty data centres spring up in water-poor Mexican town.
- Context (2025, 14 de octubre). Data centres lured to Mexico can avoid environmental reporting.
- Data Center Boom (2026). ¿Por qué construyen un data center en tu territorio? Informe Quilicura, Santiago.
- Data Center Dynamics (2025, 11 de junio). “Sam Altman: ChatGPT queries consume 0.34 watt-hours of electricity and 0.000085 gallons of water”.
- Data Workers’ Inquiry; Ranta, B. (2024). The Unknown Women of Content Moderation. DAIR Institute.
- Fortune (2026, 17 de febrero). Thousands of CEOs just admitted AI had no impact on employment or productivity—and it has economists resurrecting a paradox from 40 years ago.
- Fortune India (2026, 23 de febrero). Zoho’s Sridhar Vembu responds to Sam Altman, questions AI energy narrative.
- Foxglove. (2024, 22 de mayo). Open letter to President Biden from tech workers in Kenya.
- Fuentes Anaya, O. V. (2024). Life of a Latin American Data Worker. Data Workers’ Inquiry. Testimonio ante el Parlamento Europeo.
- Gray, M. L., & Suri, S. (2019). Ghost Work. Houghton Mifflin Harcourt.
- LAIA (2025). Democratizar la IA: el plan de Laia para que nadie conquiste el mundo. laia.ar.
- Li, P. et al. (2023). Making AI Less “Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models. University of California, Riverside.
- Miceli, M., & Posada, J. (2022). The Data-Production Dispositif. Proceedings of the ACM on Human-Computer Interaction, 6(CSCW2), 1-37.
- Mozilla Foundation (2024). Training Data for the Price of a Sandwich. Análisis de Common Crawl.
- Mozilla Foundation. Common Voice.
- OCDE (2024). Recommendation on Transparency and Integrity in Lobbying and Influence.
- OIT y Banco Mundial (2024). Generative AI and Jobs in Latin America and the Caribbean.
- Open Source Initiative (2024). Open Source AI Definition.
- Perrigo, B. (2022, 14 de febrero). Inside Facebook’s African Sweatshop. TIME.
- SemiAnalysis (2023). ” Leaked Internal Google Document Claims Open Source AI Will Outcompete Google and OpenAI”.
- Simon, L. K. (2025). Is AI Responsible for the Rise in Entry-Level Unemployment? Revelio Labs.
- Sonnenfeld, J., & Henriques, S. (2025, 7 de octubre). This Is How the AI Bubble Bursts. Yale Insights.
- The Atlantic (2025, marzo). The Unbelievable Scale of AI’s Pirated-Books Problem.
- The Washington Post (2026, 27 de enero). How Anthropic Built Claude: Buy Books, Slice Spines, Scan Pages, Recycle the Remains.
- Von Thun, M., & Colville, G. (2026). Taming the hyperscalers: A blueprint for an open, competitive, and sovereign European cloud market. Open Markets Institute.
- Weissberger, A. (2025, 1 de diciembre). AI infrastructure spending boom: a path towards AGI or speculative bubble? IEEE ComSoc Technology Blog.
- World Economic Forum (2024). The Water Challenge for Semiconductor Manufacturing and Big Tech. weforum.org.
- Wylie, C., & Cockerell, I. (2025). Captured: The Secret Behind Silicon Valley’s AI Takeover (Podcast). Audible Originals / Coda Story.
- Yahoo Finance (2025, 16 de agosto). CEO Says AI Is Taking On ‘Soul-Crushing Jobs’ With Agents That Work 24/7, Never Eat, And Never Need Benefits.
- Yotzov, I., Barrero, J. M., Bloom, N. et al. (2026). Firm Data on AI. NBER Working Paper 34836.
Bibliotecas, poder, tecnología y ciudadanía
También te puede interesar

IA en la vida cotidiana: cómo y quiénes ya usan inteligencia artificial en Argentina
2 noviembre, 2025
La biblioteca de nivel primario como punto clave en la formación de usuarios críticos y futuros profesionales
4 marzo, 2026