#ElPerúQueQueremos

La falsa neutralidad de los datos y el desafío de la justicia algorítmica

¿Creíste que los datos eran neutros? ¿que los algoritmos tomaban decisiones sin emociones? ¿que la inteligencia artificial era solo tecnología? ¿y si te dijera que nada de eso es cierto? Este ensayo es una invitación a mirar más allá del código. A pensar lo impensado. Y a entender por qué el futuro digital puede ser injusto desde su raíz.

Publicado: 2025-06-02


Introducción

En las últimas décadas, la expansión vertiginosa de las tecnologías digitales ha transformado la forma en que producimos, accedemos y procesamos información. La Inteligencia Artificial (IA), en particular, ha irrumpido como un nuevo horizonte técnico con la promesa de eficiencia, objetividad y progreso. Sin embargo, estas promesas descansan sobre un supuesto peligroso: la neutralidad de los datos. En un contexto marcado por el ascenso del capitalismo cognitivo —donde el conocimiento se convierte en mercancía—, y por una gobernanza algorítmica opaca, la idea de datos puros y objetivos se desmorona. Este ensayo examina cómo esta supuesta neutralidad invisibiliza desigualdades estructurales y plantea graves desafíos éticos, especialmente en relación con la justicia algorítmica.

I. De la sociedad de la información al capitalismo cognitivo

El desarrollo de las tecnologías de la información y la comunicación ha sido acompañado por una narrativa dominante que equipara innovación técnica con progreso social. Como señalan Sádaba Rodríguez (2016) e I. Sierra Caballero (s.f.), el surgimiento del capitalismo cognitivo se basa en la fetichización de la tecnología y en la acumulación por medio del control del conocimiento y la información. Este nuevo modelo de producción cultural desmaterializado sustituye al trabajo físico por la explotación de lo inmaterial: datos, saberes y emociones.

Estas transformaciones tienen raíces en la reorganización económica posterior a la crisis del fordismo, en la que las tecnologías digitales fueron presentadas como solución a los cuellos de botella del capital y a las tensiones geopolíticas (Sádaba, 2016). La Sociedad de la Información emergió no como un espacio neutro de democratización del conocimiento, sino como una arquitectura global diseñada para reproducir nuevas formas de dominio simbólico y económico.

II. La falsa neutralidad de los datos

Los datos no existen en un vacío: son el resultado de decisiones humanas, de modelos interpretativos, de prioridades sociales y económicas. Los sistemas de IA se alimentan de datos históricos, los cuales reflejan discriminaciones, sesgos y exclusiones. Si no se cuestionan estas fuentes, las decisiones algorítmicas tienden a perpetuar —y amplificar— dichas injusticias.

La premisa de que los datos son objetivos es una ilusión peligrosa. Como advierte Amartya Sen (1999), el desarrollo debe entenderse no solo como crecimiento económico, sino como ampliación de libertades reales. Ignorar los contextos sociales de los datos equivale a invalidar los fundamentos de la justicia distributiva, ya que se relega lo humano a un segundo plano en favor de indicadores técnicos.

III. El desafío de la justicia algorítmica

La justicia algorítmica se plantea como un marco normativo y ético que busca garantizar que las decisiones automatizadas respeten los principios de equidad, transparencia y responsabilidad. Esto implica un replanteamiento radical de las bases epistemológicas del sistema de IA. Como sostiene Alkire (2008), para medir el bienestar o la pobreza, no basta con indicadores cuantitativos; es necesario identificar las capacidades efectivamente disponibles a las personas, un enfoque que también debería aplicarse al diseño de algoritmos.

Coudouel y otros (2006) y Mancero (s.f.) aportan herramientas conceptuales útiles al identificar cómo los indicadores de pobreza y desigualdad muchas veces fallan en capturar la complejidad social. En el contexto algorítmico, este problema se multiplica: si los datos de entrenamiento no consideran factores como la etnicidad, el género o la territorialidad, los algoritmos tomarán decisiones injustas con apariencia de neutralidad.

IV. Repensar el conocimiento en la era de la inteligencia artificial

El auge del capitalismo cognitivo no solo ha redefinido la producción económica, sino también la producción simbólica. Según la perspectiva crítica de Francisco Sierra Caballero (s.f.), el conocimiento y la cultura ya no pueden analizarse sin atender al sistema de dominación que los produce y los distribuye. En este marco, la IA no es una tecnología neutral, sino un artefacto sociopolítico cargado de ideología.

Como lo advierte Ethic (2023), el capitalismo cognitivo actual instrumentaliza el conocimiento con fines lucrativos, lo cual obstaculiza la emergencia de formas colaborativas, democráticas y justas de inteligencia colectiva. Esto se conecta con el planteamiento del CEPIUBA (2021), que sugiere que el control sobre el conocimiento es hoy una forma de poder tan importante como el control del capital o el territorio.

V. Conclusión

Frente a los peligros de la automatización sin ética, urge una alfabetización digital crítica que permita comprender que los datos no son neutros y que los algoritmos no son infalibles. La justicia algorítmica, lejos de ser una utopía, debe convertirse en una herramienta política y social para garantizar que las tecnologías emergentes sirvan a los fines del desarrollo humano y la equidad. Esto requiere no solo marcos regulatorios, sino también nuevas formas de ciudadanía informada y participativa, capaces de disputar el sentido, uso y control de la información.

BIBLIOGRAFÍA

Alkire, S. (2008). Choosing Dimensions: The Capability Approach and Multidimensional Poverty. OPHI Working Paper No. 6.

Coudouel, A., Hentschel, J. S., & Wodon, Q. T. (2006). Poverty Measurement and Analysis. In J. Klugman (Ed.), A Sourcebook for Poverty Reduction Strategies. Washington D.C.: The World Bank.

Ethic. (2023). La eclosión del capitalismo cognitivo. https://ethic.es/2023/05/la-eclosion-del-capitalismo-cognitivo/

Mancero, X. (s.f.). Indicadores de desigualdad: herramientas para el análisis distributivo. CEPAL.

Sádaba Rodríguez, I. (2016). Capitalismo cognitivo y Sociedad de la Información: de la Innovación al Big Data. Con-Ciencia Social, (20), 21–30.

Sen, A. (1999). Desarrollo y libertad. Editorial Planeta.

Sen, A. (1983). Poor, relatively speaking. Oxford Economic Papers, 35(2), 153–169.

Sierra Caballero, F. (s.f.). Capitalismo cognitivo y nueva cultura colaborativa: el reto de la transversalidad. CIESPAL.

Universidad de Buenos Aires – CEPIUBA. (2021). La economía del conocimiento y el capitalismo cognitivo. https://www.cepiuba.com/post/la-econom%C3%ADa-del-conocimiento-y-el-capitalismo-cognitivo


Escrito por

Damiler Díaz Terán

Padre. Antropólogo. Hincha del Deportivo Municipal. Amante de leer todo sobre historia...


Publicado en