Por Delfina Gilli
Nos dijeron que la digitalización traería libertad. Que sería la democratización definitiva del conocimiento, de la cultura, de la voz. Que todos podríamos estar, hablar, mostrar, construir. Nos repitieron que el algoritmo no discrimina, que la inteligencia artificial es neutral, que lo digital es una oportunidad, no una amenaza. Y nos lo creímos. O al menos quisimos creerlo. Porque la promesa de que en la nube íbamos a ser iguales resultaba tentadora. Un lugar sin cuerpos, sin jerarquías, sin historia. Un mundo nuevo.
Pero alcanzó con mirar un poco más de cerca para entender que lo que parecía nuevo es, en realidad, la reconfiguración de lo mismo de siempre. Porque en esos espacios digitales que supuestamente nos igualaban, seguimos viendo los mismos patrones: exclusión, jerarquía, invisibilización. Sólo que ahora tienen mejor resolución, se ejecutan más rápido y se presentan como procesos automáticos. Bajo la superficie de la personalización, de los perfiles únicos y de los contenidos recomendados, se esconde una maquinaria sofisticada que clasifica, ordena y captura. Y en esa clasificación, los cuerpos que siempre fueron otros siguen siendo los cuerpos fuera de cuadro.
El algoritmo, dicen, es una serie de instrucciones, una secuencia lógica para resolver problemas. Pero en la práctica, el algoritmo es un modo de ver el mundo. Es una forma de traducir lo humano en dato, lo subjetivo en patrón, lo vivo en perfil. Es un filtro que decide qué se muestra y qué se oculta, qué circula y qué queda fuera. No es que alguien se siente a programar el racismo o el sexismo. Pero el algoritmo aprende. Y aprende de nosotros. Aprende de la historia, de los datos cargados de desigualdades, de los sistemas que ya venían funcionando mal. Por eso discrimina. Porque reproduce, amplifica y automatiza los sesgos que ya existen.
En ese paisaje, el cuerpo se vuelve un problema. Especialmente los cuerpos que se salen de la norma. Las mujeres, las personas negras, los migrantes, los pobres, los que no responden al modelo blanco, masculino, joven, delgado y urbano que el sistema privilegia. Esos cuerpos no se representan bien. A veces no se reconocen, otras se estigmatizan. Se los silencia, se los borra, se los traduce mal. Hay tecnologías de reconocimiento facial que fallan sistemáticamente con pieles oscuras. Hay filtros que eliminan contenido considerado “inapropiado” cuando muestra menstruación, gordura, vejez o afecto entre personas del mismo sexo. Hay plataformas que castigan con menos visibilidad a quienes no cumplen con los estándares de belleza o comportamiento esperados. No se trata de errores aislados: son decisiones inscritas en las lógicas de poder que moldean estas tecnologías. Y el efecto es el de una nueva forma de exclusión: silenciosa, automatizada, eficiente
Lo más perverso de esta maquinaria es que funciona mientras creemos que estamos eligiendo. Scrolleamos, miramos, reaccionamos, compartimos. Sentimos que navegamos con libertad. Pero cada movimiento es una traza, una huella, una microdecisión que alimenta modelos predictivos. Lo que vemos es lo que el sistema calcula que queremos ver. Y en esa lógica, el deseo también es programado. Las plataformas no nos dan lo que pedimos, sino lo que aseguran que nos mantendrá atentos, activos, enganchados. Porque lo que está en juego ya no es sólo el contenido, sino el tiempo. La atención se volvió el nuevo recurso. Y como todo recurso valioso se explota.
Si durante siglos el extractivismo se organizó en torno a la tierra, hoy lo hace en torno a la subjetividad. No se trata de sacar oro o petróleo, sino emociones, hábitos, preferencias. Lo que se extrae ahora es atención. Y lo que se ofrece a cambio son formas precarias de participación que simulan empoderamiento, pero en realidad organizan nuevas formas de control. Cada perfil, cada recomendación, cada “para ti” es parte de una economía que opera con la lógica de la hacienda: una concentración de datos, propiedad intelectual y capacidad de distribución en manos de unos pocos. La cultura se administra como monocultivo. Se siembra contenido estandarizado, se fertiliza con marketing, se cosechan clics y se venden a anunciantes. Y en ese proceso, todo lo que no encaja, todo lo que no rinde, todo lo que desborda, queda afuera.
Frente a este panorama, el peligro es caer en el cinismo o la nostalgia. Creer que todo está perdido, o que el mundo antes de internet era mejor. Pero también podemos elegir otra cosa: abrir los ojos. Empezar a leer los algoritmos como textos, como narrativas. Preguntarnos qué historias cuentan, qué cuerpos representan, qué formas de vida privilegian. Y desde ahí, resistir. No en el sentido épico, sino en el cotidiano. En las decisiones de qué compartir, a quién amplificar, con qué estética romper la lógica de la plataforma. Porque incluso en el margen hay posibilidad de creación. Y a veces el error, el glitch, el contenido “no optimizado” es lo único que permite fisurar el sistema.
No se trata de romantizar la precariedad, ni de volvernos tecnófobos. Se trata de recuperar una mirada crítica. De entender que lo digital no es un afuera, sino un espacio profundamente político. Que no hay técnica sin cultura, ni cultura sin conflicto. Y que la verdadera innovación no está en el último modelo de inteligencia artificial, sino en la capacidad de imaginar otros modos de vida, otras formas de relación, otros horizontes posibles. No queremos sólo algoritmos que funcionen mejor. Queremos plataformas que escuchen. Queremos sistemas que cuiden. Queremos tecnologías que no reproduzcan lo mismo de siempre, sino que abran caminos para lo que todavía no fue.
La pregunta, entonces, no es si la tecnología es buena o mala. La pregunta es quién la diseña, desde dónde, con qué fines, y qué voces quedaron afuera de ese diseño. Si el futuro digital no incluye a todos los cuerpos, todas las historias, todas las formas de existir, no es un futuro. Es apenas una repetición, más veloz, más rentable, más sofisticada, del pasado que ya conocemos. Y ahí, en esa repetición, se juega lo más urgente: no cómo sobrevivir en el algoritmo, sino cómo volver a pensarnos fuera de él.