Los algoritmos se ceban con los más vulnerables en las redes: los inmigrantes son negros y tumultuosos; los refugiados, blancos y tranquilos

Una auditoría independiente de YouTube y TikTok detecta importantes sesgos algorítmicos que perpetúan la deshumanización y los estereotipos en torno a colectivos vulnerables

El País, MANUEL G. PASCUAL, 25-04-2023

te a la inmigración”, detalla Galdon.

En el caso de TikTok, se eligió San Fransisco (mayoría demócrata), Oklahoma City (mayoría republicana) y Virginia Beach (ambivalente). Se centró el foco en EE UU por estar en un contexto de elecciones (las midterm elections, en las que se elige a todos los miembros de la Cámara de Representantes y a parte de los del Senado).

Curiosamente, los resultados fueron muy similares en todos los casos: el algoritmo apenas discrimina a los usuarios con el tipo de contenidos que muestra, ni por las características del perfil ni por la ubicación. Y eso que se tuvieron en cuenta tantos los resultados de las búsquedas directas como los contenidos sugeridos por el algoritmo de cada plataforma.

YouTube: distorsiones en la imagen general
Con más de 2.000 millones de usuarios activos, YouTube es la segunda plataforma social más usada del mundo, solo detrás de Facebook. Según el CEO de YouTube, Neal Mohan, hasta el 70% de los vídeos vistos en la plataforma son sugeridos por su sistema de recomendación de vídeos. Esas sugerencias se hacen a partir de un cóctel de datos en el que se incluye desde el historial de visualizaciones y las interacciones con los vídeos hasta la edad, sexo o localización del usuario. “En consecuencia, los algoritmos de recomendación de YouTube pueden influir en la percepción de un gran número de personas en todo el mundo sobre la migración”, sostienen los autores del informe.

El análisis de esta plataforma muestra que, en la gran mayoría de vídeos relacionados con la inmigración, los rostros de los personajes que aparecen en los vídeos no son identificables. En más del 60% de los casos, los protagonistas no son individuos, sino grandes grupos de personas (15 o más). Solo un 4% de quienes aparecen bajo esta temática son blancos y las mujeres están infrarrepresentadas (suponen entre un 1% y un 4%). Las personas que aparecen en los cortes no trabajan (entre el 75% y 84% de los casos) y están protestando (entre 73% y 81%).

Un ejemplo común de vídeo de YouTube si se busca “inmigrantes ” en Toronto: un grupo de adultos no blancos cruzando una frontera.
Un ejemplo común de vídeo de YouTube si se busca “inmigrantes ” en Toronto: un grupo de adultos no blancos cruzando una frontera.
En el caso de los refugiados, el retrato es distinto. La mayoría son de rasgos caucásicos. En más de la mitad de las ocasiones se les puede identificar el rostro, hay más proporción de vídeos en los que aparecen de uno a cinco individuos y se muestra a más mujeres que a hombres. Hay más vídeos en los que no están cruzando una frontera que en los que sí lo hacen, pese a que, como en el caso de los inmigrantes , lo han tenido que hacer por fuerza.

“Nuestros sistemas de búsqueda y recomendación no están diseñados para filtrar ni degradar los vídeos o los canales según determinados puntos de vista políticos”, lee la política de la plataforma a la que se remite la compañía. “Además, sometemos nuestros sistemas automáticos a auditorías para asegurarnos de que no exista ningún sesgo algorítmico no deseado (por ejemplo, de género). Corregimos los errores tan pronto como los detectamos y volvemos a preparar nuestros sistemas para que sean cada vez más precisos”.

TikTok: mucho entretenimiento y poca política
TikTok es la red social de mayor progresión en los últimos años. Especialmente popular entre los más jóvenes, expone a los usuarios a vídeos cortos seleccionados por el algoritmo, que no tiene en cuenta lo que ven tus amigos ni siquiera tu país. La plataforma está diseñada para amplificar los contenidos más virales, sean de donde sean y muestren lo que muestren (siempre y cuando cumplan con las normas de contenido legal de la compañía).

Una de las conclusiones más llamativas del análisis de TikTok es que la plataforma china elude los vídeos de carga política en torno a los inmigrantes o los refugiados. Menos de un 1% de los contenidos estudiados desarrollan argumentos a favor o en contra de estos colectivos. La mayoría de los vídeos relacionados con esta temática mostraban a personas haciendo chistes, cocinando, trabajando, creando arte o mostrando alguna habilidad curiosa.

El trabajo de Eticas concluye que el algoritmo de recomendaciones de la red social china “no está influenciada por las preferencias políticas de los usuarios”. Tampoco por su localización. Eso choca con una investigación realizada por The Wall Street Journal, según la cual TikTok es capaz de aprender los intereses implícitamente asignados a los bots y ofrecerles contenidos que se adapten a estos en menos de dos horas. “Esto sugiere que el nivel de personalización del recomendador de TikTok se ajustó el pasado año y subraya la evolución en el tiempo de los algoritmos y la necesidad de reevaluar periódicamente su impacto”, indica el informe.

TikTok no cuenta con mecanismos específicos para tratar de corregir posibles sesgos, según explica una portavoz de la plataforma. El algoritmo va ofreciendo contenidos de distintos creadores, se apuesta por la diversidad de fuentes para que no haya distorsiones y para subrayar el carácter global de esta red social.

Texto en la fuente original
(Puede haber caducado)