Hopp til navigasjon Hopp til innhold
Elon Musk er blant investorene bak OpenAI. Nå har selskapet utviklet et kontroversielt verktøy. (Ill.: Pixabay )

OpenAI har lansert verktøyet de sa var for farlig for offentligheten

Hevder de ikke har funnet sterke bevis for misbruk.

I februar i år ble det kjent at non profit-organisasjonen OpenAI hadde utviklet et intelligent tekstverktøy som kan «forutsi» hva et menneske planlegger å skrive. Ved å gi verktøyet en overskrift, kan AI sørge for å skrive en falsk nyhetsartikkel basert på den.

Frykt for «syntetisk propaganda» og fake news

Men verktøyet, som benytter seg av kunstig intelligens, ble holdt tilbake av OpenAI, i frykt for at teknologien skulle brukt til å spre spam, feilinformasjon, falske nyheter og «syntetisk propaganda».

— På grunn av bekymringer rundt skadelig bruk av denne teknologien, lanserer vi ikke denne trente modellen, skrev OpenAI i februar.

AI-verktøyet, kalt GPT-2, har imidlertid siden februar blitt lansert i små, mindre komplekse varianter, og forskerne har kontinuerlig studert hvordan verktøyet har blitt brukt.

Har lansert fullversjon likevel

Men i et blogginnlegg denne uken, skriver OpenAI at de har lansert en fullversjon av AI-modellen. De skriver også at de «ikke har sett sterke bevis for misbruk».

Du kan teste verktøyet selv på talktotransformer.com

Saken fortsetter under bildet.

OpenAI
Dette er et eksempel på tekst som er «skrevet» av AI.

Samler inn data fra 8 millioner nettsider

AI-systemet kan produsere artikler innenfor de fleste temaer, for eksempel nyhetsartikler. For å gjøre dette analyseres data fra over 8 millioner nettsider. AI-teknologien trenes til å samle inn «kvalitetsdata». I dette tilfellet betyr det at kun nettsider som er postet til Reddit inkluderes. Videre kreves det at Reddit-postene har fått en karma-score på 3 eller mer.

Ingenting av informasjonen som AI-generer, er unik. Alt er hentet fra nettet, men satt sammen på en unik måte.

Brann under vann

Forskerne erkjenner at teknologien kan produsere resultater med logiske brister og flere feil. For eksempel nevnes det at en automatisk generert nyhetsartikkel rapporterer om branner som har oppstått under vann. Andre ganger er det setninger som ikke gir mening, eller som er oppbygd helt feil.


Kilde:
The Next Web
OpenAI

Stikkord: AI, OpenAI, tekst, verktøy