El algoritmo de YouTube sigue recomendando contenido extremista, según un estudio

El algoritmo de YouTube sigue recomendando contenido extremista, según un estudio

YouTube Algorithm Continues to Recommend Extremist Content, Study Finds

Un estudio reciente realizado por el Institute for Strategic Dialogue (ISD) ha revelado que el algoritmo de YouTube continúa recomendando videos de ideología de derecha y extremistas a los usuarios, incluso si no han interactuado con ese tipo de contenido anteriormente. Este hallazgo difiere significativamente de las promesas anteriores de YouTube de mejorar su sistema de recomendaciones y prevenir la difusión de desinformación.

El estudio, que se centró en diversos intereses como videojuegos, contenido para hombres, vlogs de mamás y noticias en español, tuvo como objetivo comprender cómo funciona el algoritmo de YouTube. Los investigadores crearon perfiles de YouTube adaptados a demografías e intereses específicos y rastrearon las recomendaciones generadas por el algoritmo durante un mes.

Sorprendentemente, el estudio encontró que el algoritmo de YouTube recomendaba videos de Andrew Tate, un misógino autoproclamado, tanto a un niño de 13 años interesado en contenido para hombres como a un hombre de 30 años con intereses similares. Esto sucedió a pesar de que ninguna de las cuentas mostraba interés previo en Tate o su contenido. Además, se recomendaron videos de contenido sexualmente explícito o violento relacionados con el popular videojuego Minecraft a perfiles de 14 años, tanto de niños como de niñas.

El estudio del ISD resalta la incapacidad del algoritmo para diferenciar entre la calidad del contenido y el sensacionalismo. El algoritmo de YouTube favorece principalmente los videos con alto tráfico y participación, lo que lleva a la promoción de contenido controvertido y extremista. Aunque YouTube afirma invertir en políticas y prácticas para proteger a los usuarios del contenido dañino, el estudio indica que los cambios en el comportamiento del algoritmo son mínimos.

Estos hallazgos del estudio reflejan las preocupaciones expresadas por el Cirujano General Vivek Murthy, quien pidió a las plataformas de redes sociales que implementen etiquetas de advertencia para los usuarios jóvenes. Sin embargo, la investigadora principal del estudio, Aoife Gallagher, cree que las etiquetas de advertencia por sí solas no son suficientes y aboga por una mayor transparencia y acceso a datos por parte de plataformas como YouTube.

En conclusión, el estudio demuestra que el algoritmo de YouTube sigue teniendo una influencia significativa al recomendar contenido extremista y problemático a los usuarios, independientemente de sus intereses. Subraya la necesidad de continuar investigando y mejorando para asegurar que los algoritmos de la plataforma no contribuyan a la difusión de desinformación y radicalización.

The source of the article is from the blog procarsrl.com.ar