Cuando hablamos de “ciencia” es relativamente fácil argumentar que la ciencia no existe como ente abstracto al margen de la práctica científica.
“La ciencia dice X” es una afirmación que puede ser refutada argumentando que no es la ciencia como sujeto, sino el consenso en la comunidad científica, el que ha afirma X.
Sin embargo, cuando nos referimos a la tecnología, esta distinción metodológica resulta algo más compleja. Pero no hay nada natural las trayectorias tecnológicas (Aibar Puentes, 2010, pág. 29), y como tal se empapa de los valores culturales dominantes en la sociedad en la que tiene lugar, y que son propios de las personas implicadas en el proceso de innovación tecnológica. Un ejemplo es el del racismo en los algoritmos de la inteligencia artificial detrás de las principales plataformas web y redes sociales: Google, Facebook, Twitter…
Cuando un usuario sube una imagen a Twitter y esta es demasiado grande, el algoritmo recorta esta imagen mostrando lo que considera más relevante de la misma. Lo problemático es que en una imagen con dos personas, una blanca y otra de color, considera por defecto más relevante a la persona blanca (Jimenez de Luis, 2020), y esto no tiene nada de natural ni de casual. El equipo de twitter no encontró ninguna evidencia de prejuicio racial, pero el análisis empírico demostró que este existía (Vives, 2020).
Los ingenieros que desarrollaron el algoritmo de Facebook tampoco creyeron tener prejuicios racistas. Y, sin embargo la compañía tuvo que pedir disculpas públicamente cuando su herramienta de inteligencia artificial recomendó videos de primates a usuarios que habían estado viendo vídeos con hombres negros como protagonistas (Jiménez de Luis, 2021). Algo similar ocurrió años antes con Google Photos y su inteligencia artificial, que confundía a personas negras con gorilas porque no era capaz de distinguir una tez oscura de humano de la de un simio. ¿La solución que encontraron? Eliminar del algoritmo a gorilas y chimpancés (Salas, 2018). Y chimpún.
Así que la respuesta a la pregunta que encabeza este artículo es: sí, la tecnología puede ser racista en la medida que lo sea la sociedad en la que tenga lugar el desarrollo tecnológico.
Bibliografía
Aibar Puentes, E. (2010). La vision constructivista de la innovación tecnológica. Barcelona: UOC.
Jimenez de Luis, A. (22 de septiembre de 2020). ¿Es racista el algoritmo de Twitter? Obtenido de El Mundo: https://www.elmundo.es/tecnologia/2020/09/22/5f68efe3fc6c83b9088b465b.html
Jiménez de Luis, Á. (7 de septiembre de 2021). Racista por defecto: la discriminación de los algoritmos que Silicon Valley no soluciona. Obtenido de El Mundo: https://www.elmundo.es/tecnologia/2021/09/07/6136448bfdddff8c328b465a.html
Salas, J. (15 de enero de 2018). Google arregla su algoritmo ‘racista’ borrando a los gorilas. Obtenido de El país: https://elpais.com/tecnologia/2018/01/14/actualidad/1515955554_803955.html
Vives, J. (21 de septiembre de 2020). Twitter analiza el sesgo racista de su algoritmo. Obtenido de La Vanguardia: https://www.lavanguardia.com/tecnologia/20200921/483595565948/twitter-analiza-sesgo-racista-algoritmo.html
Jamás lo hubiese visto desde ese punto de vista, pero hay que entender que todo ha sido programado antes por humanos, así que si el humano que lo programa es racista, el AI también.