Så flat er jorda, mener noen. De andre har ikke sett nok YouTube-videoer.
Så flat er jorda, mener noen. De andre har ikke sett nok YouTube-videoer.

Annonse


Får skylden for at stadig flere tror på flat jordoverflate

YouTube har lenge insistert på at de stadig introduserer nye tiltak for å få bukt med falsk informasjon og andre problemer som plattformen hyppig brukes til spredningen av. Eksempelvis implementerte de nylig kunstig intelligens som tar sikte på å gjøre arbeidet med å motvirke spredning av slik informasjon lettere, men det er ifølge forskere ikke nok.

Alle utenom én har blitt overbevist på YouTube

I en forskningsrapport går det nemlig fram at den store veksten i personer som tror at jorda er flat i stor grad skyldes konspirasjonsvideoer som lastes opp til det svært populære nettstedet.

Rapporten er utredet av Asheley Landrum ved Texas Tech University, og fra denne går det fram at alle utenom én av de 30 som har blitt intervjuet ikke trodde på konspirasjonene før de satte seg inn i videoer angående temaet på YouTube. Den ene personen som selv ikke hadde blitt overbevist av YouTube-videoer skal ha blitt overbevist av familiemedlemmer som selv hadde latt seg overbevise av videoene på videonettstedet.

Anbefalingene er basert på aktive brukere

Videre ble det avdekket at videoene dukket opp som anbefalinger etter at man har sett andre konspirasjonsvideoer, blant annet 9/11-teorier og omkring månelandingen som noen tror aldri fant sted.

Annonse


Ifølge AI-eksperten Guillaume Chaslot så ser man en tendens til at konspirasjonsteorier oftere løftes opp og frem av YouTube sin AI-algoritme, også hyppigere enn faktabaserte videoer. Dette forklarer Chaslot i at plattformer som bruker kunstig intelligens ofte former seg etter vanene til spesielle grupper: de som er relativt små i antall brukere men som er svært aktive.

Kilde:
Engadget

Annonse