YouTube-algoritmen held fram med å anbefale ekstremistisk innhald, ifølgje studie

YouTube-algoritmen held fram med å anbefale ekstremistisk innhald, ifølgje studie

YouTube Algorithm Continues to Recommend Extremist Content, Study Finds

Ei nyleg studie gjennomført av Institute for Strategic Dialogue (ISD) har avslørt at YouTube si algoritme fortset å anbefale høgreorienterte, ekstremistiske videoer til brukarar, sjølv om dei ikkje har interagert med den typen innhald tidlegare. Denne oppdaginga avviker betydeleg frå YouTube sine tidlegare lovnader om å forbetre sitt anbefalingssystem og hindre spreiing av misinformasjon.

Studien, som fokuserte på forskjellige interesser som gaming, innhald om mannleg livsstil, mammavloggerar og spansk nyheitsinnhald, hadde som mål å forstå korleis YouTube si algoritme fungerer. Forskarar skapte YouTube-profiler tilpassa spesifikke demografiske og interesser og spora anbefalingane algoritmen genererte over ein månad.

Overraskande nok fann studien ut at YouTube si algoritme anbefalte videoar med Andrew Tate, ein sjølvutnemnd kvinnefiendtleg person, til både ein 13 år gamal gut interessert i innhald om mannleg livsstil og ein 30 år gamal mann med liknande interesser. Dette skjedde sjølv om ingen av kontoane viste tidlegare interesse for Tate eller innhaldet hans. I tillegg vart videoar med seksuelt eksplisitt eller valdeleg innhald knytt til det populære spelet Minecraft anbefalt til profilane oppretta for 14 år gamal gutar og jenter.

ISD-studien framhevar at algoritmen ikkje klarar å skilje mellom innhaldskvalitet og sensasjonalisme. YouTube si algoritme favoriserer primært videoar med høg trafikk og engasjement, noko som fører til promotering av kontroversielt og ekstremistisk innhald. Sjølv om YouTube hevdar å investere i retningsliner og praksisar for å beskytte brukarar mot skadeleg innhald, indikerer studien at endringar i algoritmens åtferd er minimale.

Resultata av denne studien er i tråd med bekymringar uttrykte av kirurgisen general Vivek Murthy, som kalla på at sosiale medieplattformer skal implementere varselmerke for unge brukarar. Likevel trur leiande forskar i studien, Aoife Gallagher, at varselmerke åleine ikkje er tilstrekkeleg og går inn for større gjennomsiktighet og tilgang til data frå plattformer som YouTube.

Konklusjonen er at studien viser at YouTube si algoritme framleis har ein stor innverknad på å anbefale ekstremistisk og problematisk innhald til brukarar, uavhengig av deira interesser. Det understrekar behovet for vidare forsking og forbetringar for å sikre at plattforma sine algoritmar ikkje bidrar til spreiing av misinformasjon og radikalisering.

Ytterlegare fakta:
– YouTube er eigd av Google og er ein av verdas største videodelingsplattformer, med milliardar av brukarar og videoar lasta opp dagleg.
– YouTube si anbefalingsalgoritme er designa for å halde brukarar engasjerte på plattforma, sidan meir engasjement set seg om til auka annonseinntekter for selskapet.
– Algoritmen analyserer brukaråtferd, som kva ein har sett på tidlegare, likar og delingar, for å gi personaliserte anbefalingar.
– Studien fokuserte berre på eit avgrensa antal interesser og demografiske, slik at omfanget av YouTube sine algoritmiske anbefalingar for ekstremistisk innhald kan vere breiare enn det som vart observert.

Nøkkelspørsmål og svar:
– Korleis fungerer YouTube si algoritme?
YouTube si algoritme analyserer brukaråtferd, som kva ein har sett på tidlegare, likar og delingar, for å gi personaliserte anbefalingar for å halde brukarar engasjerte på plattforma.

– Kvifor anbefaler YouTube si algoritme ekstremistisk innhald?
YouTube si algoritme favoriserer primært videoar med høg trafikk og engasjement. Difor kan kontroversielt og ekstremistisk innhald ofte generere fleire visningar og engasjement, noko som fører til at det blir anbefalt.

– Kva potensiell innverknad har algoritmens anbefaling av ekstremistisk innhald?
Anbefaling av ekstremistisk innhald kan bidra til spreiing av misinformasjon, radikalisering og forsterking av skadelege ideologiar. Det kan også føre til utilsiktet eksponering av slikt innhald for brukarar som ikkje ville ha møtt det elles.

Nøkkelutfordringar eller kontroversar:
– Balansering av ytringsfridom med naudsynet for å handtere skadeleg innhald: YouTube står overfor utfordringa med å finne ein balanse mellom å tillate mangfaldig innhald samtidig som ein minimerer spreiinga av ekstremistisk og problematisk materiale.

– Algoritmiske bias: Funn i studien reiser bekymringar om potensielle biasar i YouTube si anbefalingsalgoritme. Det kan være naudsynt å handtere desse biasane for å sikre rettferdige og upåverka innhaldsanbefalingar.

Fordelar:
– Personaliserte innhaldsanbefalingar: YouTube si algoritme gjev brukarar moglegheit til å oppdage nytt innhald tilpassa deira interesser og preferansar.

– Auken i engasjement: Algoritmen si evne til å anbefale videoar som brukarar truleg vil like kan bidra til auka engasjement på plattforma, til fordel for innhaldsskaparar og plattforma sjølv.

Ulemper:
– Potensiale for misinformasjon og radikalisering: Med algoritmen som favoriserer kontroversielt og ekstremistisk innhald, er det ein risiko for at misinformasjon og skadelege ideologiar kan spreiast og bli forsterka på plattforma.

– Mangel på gjennomsiktighet: Brukarar kan mangla ein tydeleg forståing av korleis algoritmen bestemmer kva videoar den skal anbefale, noko som skaper bekymringar om plattforma si ansvarsplass og potensielle biasar.

Relaterte lenker:
Institute for Strategic Dialogue (ISD)
Verdas helseorganisasjon (WHO)
National Geographic