Por Delfina Gilli
Diseño Emiliano Guerresi
Una tecnología que perpetúa los prejuicios y desigualdades.
Para entender de qué manera funciona el racismo estructural algorítmico, hice el ejercicio de buscar tanto en Google como en las aplicaciones de fotos que trabajan con inteligencia artificial conceptos básicos como “trabajador”, “trabajadora”, “mujer exitosa”, “mujer feliz”, “hombre de negocios”, “hombre bello”, “niña bonita”. Como esperaba, no fue una sorpresa encontrarme con representaciones de personas blancas y hegemónicas. Por el contrario, al buscar “pobreza”, “feo”, “hombre malo”, “hombre sucio”, la mayoría de las imágenes presentadas eran de personas negras o descendientes de pueblos originarios.
Pareciera ser que el éxito, la belleza, y la felicidad sólo tienen un color: el blanco. Algo similar sucede con los filtros de Instagram y Tiktok, los cuales tienden a suavizar la piel y aclararla, como así también afinar rasgos, siguiendo los patrones de belleza occidentales. En Instagram, cuando hacemos una historia e intentamos insertar un ícono, al escribir cualquier palabra que incluya una personificación, la primera opción es una representación blanca. Para que aparezca una iconización negra, se tiene que especificar la palabra «negro» al final. Se sigue instalando a la blancura como la norma y el estándar, y los demás grupos raciales necesitan o demandan ser detallados como una excepción.
Los algoritmos están basados en códigos que han aprendido a identificar rostros occidentales. Antes de las representaciones con inteligencia artificial y los filtros, el racismo estructural algorítmico comenzó en la década de los 60 con el hardware, los equipos de filmación y las cámaras, las cuales tenían al hombre blanco como foco central. Los censores y las tecnologías infrarrojas desarrolladas en las últimas décadas parten de la piel blanca y su reflexión de la luz como base. En 2015, por ejemplo, el software de reconocimiento de imágenes de Google clasificó varias fotos de personas negras como "gorilas". En el año 2020, la red social Twitter se encontró con un problema similar: el informático Toni Arcieri, exhibió que el algoritmo que recorta las imágenes cuando son demasiado grandes, descartaba los rostros negros y se centraba en los de personas blancas, independientemente de la posición en la imagen. La programación utiliza diversas técnicas de aprendizaje automatizado. Los desarrolladores alimentan la rutina con millones de imágenes y vídeos, y posteriormente el resultado que esperan obtener. El algoritmo, a partir de estos ejemplos, aplica ese modelo a cualquier situación posterior.
El racismo virtual responde a los algoritmos que son diseñados y entrenados por seres humanos, siguiendo un supuesto realismo capitalista que no permite ni acepta imágenes alternativas a las que presenta el diseño neoliberal. Esta forma de conducción silenciosa condiciona el gusto, tanto individual como colectivo, generando un deseo que no se relaciona con el placer, sino más bien, con un motor que actúa como fuerza activa creadora de la realidad social. Los poderes reales perciben eso y lo usan para seguir conduciendo a las individualidades y a las masas, reforzando los lazos de dominación. Los cuerpos y las imágenes desplazadas y/o usadas de forma peyorativa son de personas negras, perpetuando así la exclusión racial del lenguaje simbólico, pero sustraída en conceptos.
Es fundamental que como subjetividades seamos conscientes del sometimiento y el control que ejercen las empresas y los gobiernos en nuestras experiencias vitales, y en cómo utilizan el dato para orientar la conducta. Creemos que se nos da la libertad de producir y crear realidad en la era digital, cuando realmente somos parte de las estrategias internas de instrucción y distribución de los poderes reales. La idea que tenemos sobre el futuro, no debería encontrarse en una dimensión espacial más allá de, sino como una manera de pensar el presente, por lo que, si seguimos produciendo y reproduciendo conductas e internalizaciones que responden a un racismo estructural en lo cotidiano, se torna casi imposible imaginar un posible antirracismo tecnocientífico. Ahora bien, ¿alcanza con la reflexión y el análisis para “combatir” la racialización algorítmica? Pareciera ser que en la era digital todo puede ser moldeado bajo cualquier forma concebible (Frank Parsons por Donna Haraway, 1995), siempre y cuando entre dentro de las lógicas capitalistas y neoliberales. El panorama existente es desalentador en cuanto a un cambio radical de las representaciones digitales como formas de perpetuar las diferencias que provienen desde la modernidad. Es por esto que el trabajo de los programadores que crean los algoritmos es sumamente importante, ya que los datos programados recogen lo que sucede en la realidad, para luego reforzar los cánones hegemónicos en la individualidad de cada usuario.
Está claro que la categorización racial fue y sigue siendo una tecnología de poder para extraer beneficios. La digitalización revela que el racismo algorítmico se nutre por las grandes empresas y corporaciones tecnológicas, gracias a la obtención de información invisible e inaudible para la percepción humana. Es importante que tanto individual como colectivamente, cuestionemos y reflexionemos acerca de los cánones ya establecidos y reproducidos algorítmicamente, explorando nuevas posibilidades de relación e imaginación con los otros.