Viejas jerarquías, nuevos algoritmos: sobre las promesas vacías de lo digital y la persistencia de los viejos regímenes de exclusión 

Por Delfina Gilli

Nos dijeron que la digitalización traería libertad. Que sería la democratización definitiva del  conocimiento, de la cultura, de la voz. Que todos podríamos estar, hablar, mostrar, construir. Nos  repitieron que el algoritmo no discrimina, que la inteligencia artificial es neutral, que lo digital es  una oportunidad, no una amenaza. Y nos lo creímos. O al menos quisimos creerlo. Porque la  promesa de que en la nube íbamos a ser iguales resultaba tentadora. Un lugar sin cuerpos, sin  jerarquías, sin historia. Un mundo nuevo. 

Pero alcanzó con mirar un poco más de cerca para entender que lo que parecía nuevo es, en  realidad, la reconfiguración de lo mismo de siempre. Porque en esos espacios digitales que  supuestamente nos igualaban, seguimos viendo los mismos patrones: exclusión, jerarquía,  invisibilización. Sólo que ahora tienen mejor resolución, se ejecutan más rápido y se presentan  como procesos automáticos. Bajo la superficie de la personalización, de los perfiles únicos y de  los contenidos recomendados, se esconde una maquinaria sofisticada que clasifica, ordena y  captura. Y en esa clasificación, los cuerpos que siempre fueron otros siguen siendo los cuerpos  fuera de cuadro.

El algoritmo, dicen, es una serie de instrucciones, una secuencia lógica para resolver problemas.  Pero en la práctica, el algoritmo es un modo de ver el mundo. Es una forma de traducir lo  humano en dato, lo subjetivo en patrón, lo vivo en perfil. Es un filtro que decide qué se muestra y  qué se oculta, qué circula y qué queda fuera. No es que alguien se siente a programar el racismo  o el sexismo. Pero el algoritmo aprende. Y aprende de nosotros. Aprende de la historia, de los  datos cargados de desigualdades, de los sistemas que ya venían funcionando mal. Por eso  discrimina. Porque reproduce, amplifica y automatiza los sesgos que ya existen. 

En ese paisaje, el cuerpo se vuelve un problema. Especialmente los cuerpos que se salen de la  norma. Las mujeres, las personas negras, los migrantes, los pobres, los que no responden al  modelo blanco, masculino, joven, delgado y urbano que el sistema privilegia. Esos cuerpos no se  representan bien. A veces no se reconocen, otras se estigmatizan. Se los silencia, se los borra, se  los traduce mal. Hay tecnologías de reconocimiento facial que fallan sistemáticamente con pieles  oscuras. Hay filtros que eliminan contenido considerado “inapropiado” cuando muestra  menstruación, gordura, vejez o afecto entre personas del mismo sexo. Hay plataformas que  castigan con menos visibilidad a quienes no cumplen con los estándares de belleza o  comportamiento esperados. No se trata de errores aislados: son decisiones inscritas en las lógicas  de poder que moldean estas tecnologías. Y el efecto es el de una nueva forma de exclusión:  silenciosa, automatizada, eficiente 

Lo más perverso de esta maquinaria es que funciona mientras creemos que estamos eligiendo.  Scrolleamos, miramos, reaccionamos, compartimos. Sentimos que navegamos con libertad. Pero  cada movimiento es una traza, una huella, una microdecisión que alimenta modelos predictivos.  Lo que vemos es lo que el sistema calcula que queremos ver. Y en esa lógica, el deseo también es programado. Las plataformas no nos dan lo que pedimos, sino lo que aseguran que nos  mantendrá atentos, activos, enganchados. Porque lo que está en juego ya no es sólo el contenido,  sino el tiempo. La atención se volvió el nuevo recurso. Y como todo recurso valioso se explota. 

Si durante siglos el extractivismo se organizó en torno a la tierra, hoy lo hace en torno a la  subjetividad. No se trata de sacar oro o petróleo, sino emociones, hábitos, preferencias. Lo que se  extrae ahora es atención. Y lo que se ofrece a cambio son formas precarias de participación que  simulan empoderamiento, pero en realidad organizan nuevas formas de control. Cada perfil, cada  recomendación, cada “para ti” es parte de una economía que opera con la lógica de la hacienda: una concentración de datos, propiedad intelectual y capacidad de distribución en manos de unos  pocos. La cultura se administra como monocultivo. Se siembra contenido estandarizado, se  fertiliza con marketing, se cosechan clics y se venden a anunciantes. Y en ese proceso, todo lo  que no encaja, todo lo que no rinde, todo lo que desborda, queda afuera. 

Frente a este panorama, el peligro es caer en el cinismo o la nostalgia. Creer que todo está  perdido, o que el mundo antes de internet era mejor. Pero también podemos elegir otra cosa: abrir  los ojos. Empezar a leer los algoritmos como textos, como narrativas. Preguntarnos qué historias  cuentan, qué cuerpos representan, qué formas de vida privilegian. Y desde ahí, resistir. No en el  sentido épico, sino en el cotidiano. En las decisiones de qué compartir, a quién amplificar, con  qué estética romper la lógica de la plataforma. Porque incluso en el margen hay posibilidad de  creación. Y a veces el error, el glitch, el contenido “no optimizado” es lo único que permite  fisurar el sistema. 

No se trata de romantizar la precariedad, ni de volvernos tecnófobos. Se trata de recuperar una  mirada crítica. De entender que lo digital no es un afuera, sino un espacio profundamente  político. Que no hay técnica sin cultura, ni cultura sin conflicto. Y que la verdadera innovación  no está en el último modelo de inteligencia artificial, sino en la capacidad de imaginar otros  modos de vida, otras formas de relación, otros horizontes posibles. No queremos sólo algoritmos  que funcionen mejor. Queremos plataformas que escuchen. Queremos sistemas que cuiden.  Queremos tecnologías que no reproduzcan lo mismo de siempre, sino que abran caminos para lo  que todavía no fue. 

La pregunta, entonces, no es si la tecnología es buena o mala. La pregunta es quién la diseña,  desde dónde, con qué fines, y qué voces quedaron afuera de ese diseño. Si el futuro digital no  incluye a todos los cuerpos, todas las historias, todas las formas de existir, no es un futuro. Es  apenas una repetición, más veloz, más rentable, más sofisticada, del pasado que ya conocemos.  Y ahí, en esa repetición, se juega lo más urgente: no cómo sobrevivir en el algoritmo, sino cómo  volver a pensarnos fuera de él.