YouTube har lenge insistert på at de stadig introduserer nye tiltak for å få bukt med falsk informasjon og andre problemer som plattformen hyppig brukes til spredningen av. Eksempelvis implementerte de nylig kunstig intelligens som tar sikte på å gjøre arbeidet med å motvirke spredning av slik informasjon lettere, men det er ifølge forskere ikke nok.
Alle utenom én har blitt overbevist på YouTube
I en forskningsrapport går det nemlig fram at den store veksten i personer som tror at jorda er flat i stor grad skyldes konspirasjonsvideoer som lastes opp til det svært populære nettstedet.
Rapporten er utredet av Asheley Landrum ved Texas Tech University, og fra denne går det fram at alle utenom én av de 30 som har blitt intervjuet ikke trodde på konspirasjonene før de satte seg inn i videoer angående temaet på YouTube. Den ene personen som selv ikke hadde blitt overbevist av YouTube-videoer skal ha blitt overbevist av familiemedlemmer som selv hadde latt seg overbevise av videoene på videonettstedet.
Anbefalingene er basert på aktive brukere
Videre ble det avdekket at videoene dukket opp som anbefalinger etter at man har sett andre konspirasjonsvideoer, blant annet 9/11-teorier og omkring månelandingen som noen tror aldri fant sted.
Annonse
Ifølge AI-eksperten Guillaume Chaslot så ser man en tendens til at konspirasjonsteorier oftere løftes opp og frem av YouTube sin AI-algoritme, også hyppigere enn faktabaserte videoer. Dette forklarer Chaslot i at plattformer som bruker kunstig intelligens ofte former seg etter vanene til spesielle grupper: de som er relativt små i antall brukere men som er svært aktive.
Kilde:
Engadget
Annonse