Algoritmo de YouTube continúa recomendando contenido extremista, revela estudio

Algoritmo de YouTube continúa recomendando contenido extremista, revela estudio

YouTube Algorithm Continues to Recommend Extremist Content, Study Finds

Un estudio reciente realizado por el Instituto para el Diálogo Estratégico (ISD) ha revelado que el algoritmo de YouTube sigue recomendando videos de extrema derecha y extremistas a los usuarios, incluso si no han interactuado con ese tipo de contenido antes. Este hallazgo difiere significativamente de las promesas anteriores de YouTube de mejorar su sistema de recomendación y prevenir la propagación de desinformación.

El estudio, que se centró en diversos intereses como videojuegos, contenido de estilo de vida masculino, vloggers de mamás y noticias en español, tenía como objetivo comprender cómo funciona el algoritmo de YouTube. Los investigadores crearon perfiles de YouTube adaptados a demografías e intereses específicos y rastrearon las recomendaciones generadas por el algoritmo durante un mes.

Sorprendentemente, el estudio encontró que el algoritmo de YouTube recomendaba videos con Andrew Tate, un autoproclamado misógino, tanto a un chico de 13 años interesado en contenido de estilo de vida masculino como a un hombre de 30 años con intereses similares. Esto sucedió a pesar de que ninguna de las cuentas mostraba ningún interés previo en Tate o su contenido. Además, se recomendaron videos con contenido sexualmente explícito o violento relacionado con el popular videojuego Minecraft a perfiles configurados para chicos y chicas de 14 años.

El estudio del ISD destaca la incapacidad del algoritmo para diferenciar entre calidad de contenido y sensacionalismo. El algoritmo de YouTube favorece principalmente videos con alto tráfico y compromiso, lo que lleva a la promoción de contenido controvertido y extremista. Aunque YouTube afirma invertir en políticas y prácticas para proteger a los usuarios de contenido dañino, el estudio indica que los cambios en el comportamiento del algoritmo son mínimos.

Los hallazgos de este estudio coinciden con las preocupaciones expresadas por el Cirujano General Vivek Murthy, quien pidió a las plataformas de redes sociales que implementen etiquetas de advertencia para los usuarios jóvenes. Sin embargo, la investigadora principal del estudio, Aoife Gallagher, cree que las etiquetas de advertencia por sí solas no son suficientes y aboga por una mayor transparencia y acceso a datos por parte de plataformas como YouTube.

En conclusión, el estudio demuestra que el algoritmo de YouTube sigue teniendo una influencia significativa en recomendar contenido extremista y problemático a los usuarios, independientemente de sus intereses. Subraya la necesidad de una investigación continua y mejoras para garantizar que los algoritmos de la plataforma no contribuyan a la propagación de desinformación y radicalización.

Additional Facts:
– YouTube es propiedad de Google y es una de las plataformas de intercambio de videos más grandes del mundo, con miles de millones de usuarios y videos cargados diariamente.
– El algoritmo de recomendación de YouTube está diseñado para mantener a los usuarios comprometidos en la plataforma, ya que más compromiso se traduce en un aumento de los ingresos por publicidad para la empresa.
– El algoritmo analiza el comportamiento del usuario, como el historial de reproducciones, los «me gusta» y los compartidos, para proporcionar recomendaciones personalizadas.
– El estudio se centró solo en un número limitado de intereses y demografías, por lo que la extensión de las recomendaciones algorítmicas de YouTube para contenido extremista puede ser más amplia de lo observado.

Preguntas Clave y Respuestas:
– ¿Cómo funciona el algoritmo de YouTube?
El algoritmo de YouTube analiza el comportamiento del usuario, como el historial de reproducciones, los «me gusta» y los compartidos, para proporcionar recomendaciones personalizadas y mantener a los usuarios comprometidos en la plataforma.

– ¿Por qué el algoritmo de YouTube recomienda contenido extremista?
El algoritmo de YouTube favorece principalmente videos con alto tráfico y compromiso. Como resultado, el contenido controvertido y extremista a menudo puede generar más vistas y compromiso, lo que lleva a su recomendación.

– ¿Qué impacto potencial tiene la recomendación de contenido extremista por parte del algoritmo?
La recomendación de contenido extremista puede contribuir a la propagación de desinformación, radicalización y la amplificación de ideologías dañinas. También puede llevar a una exposición no deseada de dicho contenido a usuarios que de otro modo no lo habrían encontrado.

Desafíos o Controversias Clave:
– Equilibrar la libertad de expresión con la necesidad de abordar contenido dañino: YouTube enfrenta el desafío de encontrar un equilibrio entre permitir contenido diverso y minimizar la difusión de material extremista y problemático.

– Sesgos algorítmicos: Los hallazgos del estudio plantean preocupaciones sobre posibles sesgos dentro del algoritmo de recomendación de YouTube. Puede ser necesario abordar estos sesgos para garantizar recomendaciones de contenido justas e imparciales.

Ventajas:
– Recomendaciones de contenido personalizadas: El algoritmo de YouTube permite a los usuarios descubrir nuevo contenido adaptado a sus intereses y preferencias.

– Aumento del compromiso: La capacidad del algoritmo de recomendar videos que los usuarios probablemente disfruten puede contribuir a un mayor compromiso en la plataforma, beneficiando a los creadores de contenido y a la plataforma misma.

Desventajas:
– Potencial para desinformación y radicalización: Con el algoritmo favoreciendo contenido controvertido y extremista, existe el riesgo de que la desinformación e ideologías perjudiciales se propaguen y amplifiquen en la plataforma.

– Falta de transparencia: Los usuarios pueden no tener una comprensión clara de cómo el algoritmo decide qué videos recomendar, lo que plantea preocupaciones sobre la responsabilidad y posibles sesgos de la plataforma.

Enlaces Relacionados:
Instituto para el Diálogo Estratégico (ISD)
Organización Mundial de la Salud (OMS)
National Geographic