Algoritmo di YouTube Continua a Raccomandare Contenuti Estremisti, Trova uno Studio

Algoritmo di YouTube Continua a Raccomandare Contenuti Estremisti, Trova uno Studio

YouTube Algorithm Continues to Recommend Extremist Content, Study Finds

Uno studio recente condotto dall’Istituto per il Dialogo Strategico (ISD) ha rivelato che l’algoritmo di YouTube continua a consigliare video estremisti di destra agli utenti, anche se non hanno interagito con quel tipo di contenuto in precedenza. Questa scoperta si discosta significativamente dalle precedenti promesse di YouTube di migliorare il sistema di raccomandazione e prevenire la diffusione di disinformazione.

Lo studio, che si è concentrato su vari interessi come i videogiochi, il content lifestyle maschile, i vlog delle mamme e le notizie in lingua spagnola, aveva l’obiettivo di comprendere il funzionamento dell’algoritmo di YouTube. I ricercatori hanno creato profili YouTube personalizzati per specifiche demografiche e interessi e hanno monitorato le raccomandazioni generate dall’algoritmo nel corso di un mese.

In modo sorprendente, lo studio ha scoperto che l’algoritmo di YouTube ha consigliato video con protagonista Andrew Tate, un misogino auto-proclamato, sia a un ragazzo di 13 anni interessato al content lifestyle maschile che a un uomo di 30 anni con interessi simili. Questo è successo nonostante nessuno dei due account mostrasse alcun interesse precedente nei confronti di Tate o del suo contenuto. Inoltre, sono stati consigliati video con contenuti sessualmente espliciti o violenti legati al popolare videogioco Minecraft ai profili creati per ragazzi e ragazze di 14 anni.

Lo studio dell’ISD mette in evidenza l’incapacità dell’algoritmo di differenziare tra qualità del contenuto e sensazionalismo. L’algoritmo di YouTube favorisce principalmente video con un alto traffico e coinvolgimento, portando alla promozione di contenuti controversi ed estremisti. Nonostante YouTube sostenga di investire in politiche e pratiche per proteggere gli utenti da contenuti dannosi, lo studio indica che i cambiamenti nel comportamento dell’algoritmo sono minimi.

Le conclusioni di questo studio rispecchiano le preoccupazioni espresse dal Surgeon General Vivek Murthy, che ha chiesto alle piattaforme di social media di implementare etichette di avviso per i giovani utenti. Tuttavia, la ricercatrice principale dello studio, Aoife Gallagher, ritiene che le etichette di avviso da sole non siano sufficienti e fa campagna per una maggiore trasparenza e accesso ai dati da parte di piattaforme come YouTube.

In conclusione, lo studio dimostra che l’algoritmo di YouTube continua ad avere un’influenza significativa nel consigliare contenuti estremisti e problematici agli utenti, indipendentemente dai loro interessi. Sottolinea la necessità di continuare la ricerca e apportare miglioramenti per garantire che gli algoritmi della piattaforma non contribuiscano alla diffusione di disinformazione e radicalizzazione.