Hopp til navigasjon Hopp til innhold
I stedet for å samarbeide, slik i bildet ovenfor, foretrakk botene å samarbeide med boter tilhørende egen gruppe. (Ill.: Pixabay)

Roboter kan utvikle fordommer

Akkurat som oss mennesker.

En studie utført av MIT og Cardiff peker i retning av at roboter kan utvikle fordommer. Det vil da si at det ikke bare er mennesker og dyr som kan være partiske.

Lærer av hverandre

Psykologer og dataforskere ved Massachusetts Institute of Technology og Cardiff University har oppdaget at roboter som styres av kunstig intelligens utvikler fordommer ved å lære av hverandre.

At kunstig intelligens kan vise fordommer mot enkelte grupper er i seg selv ingen nyhet. Microsofts chatbot kalt «Zo» ble lurt til å svare på kontroversielle temaer på Twitter – og resultatet var kontroversielt.

Zo påstod blant annet at Koranen var «veldig voldelig», og i samme økt ble også jakten på Osama bin Laden nevnt. Videre har også Twitters algoritmer vist seg å være partiske.

Den nye studien fra MIT og Cardiff viser derimot at kunstig intelligens kan skape fordommer helt uten menneskelig input. Forskerne skriver blant annet at «en gruppe autonome maskiner viste fordommer simpelthen ved å identifisere, kopiere og lære denne oppførselen av andre roboter».

Boter foretrekker boter tilhørende egen gruppe

Forskerne satte opp et simulert spill der AI-botene skulle donere liksompenger til andre boter – enten i deres egne grupper eller andre grupper. Dette skulle skje basert på de enkelte robotenes rykte og doneringsstrategier.

Robotene foretrakk å donere til roboter tilhørende deres egen gruppe, og de ble over tid mer og mer fordomsfulle mot roboter tilhørende andre grupper.

Etter flere tusen simulasjoner hadde robotene lært seg strategier ved å kopiere roboter tilhørende både egne og andre grupper.

Grupper som vil beskytte seg blir også fordomsfulle

– Våre simuleringer viser at fordommer er en sterk naturlig kraft. Gjennom evolusjon får virtuelle populasjoner et insentiv til å bli fordomsfulle for å styrke samholdet innad i populasjonene. Når en gruppe forsøker å beskytte seg mot en fordomsfull gruppe, kan det lede til at også denne gruppa blir fordomsfull- enden på visa er at populasjonen blir splittet. Slike dyptsittende fordommer er vanskelige å fjerne, skrev Roger Whitaker, professor ved Cardiff University.

Og hva med ikke-fordomsfulle grupper?

– Om man har et stort antall grupper med ikke-fordomsfulle boter, kan disse begynne å samarbeide på tvers av populasjonene. Dette krever derimot at gruppene har enkeltboter som er villige til å handle med boter utenfor populasjonen, avsluttet Whitaker.

Apropos AI – du kan se Elon Musk diskutere temaet med Joe Rogen. Sendingen sendes fremdeles direkte.

Kilde:

EurekAlert!

Stikkord: AI, kunstig intelligens