openai
OpenAI jobber i hemmeliget med prosjekt Q hevdes det. Visstnok skal selskapets AI nå klare å utføre grunnleggende matte.

Annonse


Er dette årsaken til OpenAI-kaoset? “En fare for menneskeheten”

“Reuters melder om en potensiell ny vending i saken rundt OpenAI, der den siste inntraff i går: Sam Altman kommer tilbake som sjef, og ingen utenfor selskapene skjønner hva hans posisjon blir hos Microsoft, om noe.

Fra språk til matte – en generalisert AI

“Potensiell” fordi vi i utgangspunktet ikke vet om det nye brevet som er avslørt av Reuters, har hatt noe med de kaotiske ukene å gjøre, men pikant er det uansett. Ifølge Reuters (som siterer de to kildene om at jo, det er brevet som er en av grunnene), skrev høytstående utviklere i selskapet et brev adressert til styret. Innholdet i brevet beskriver en forbedring av AI så massiv at “den er en fare for menneskeheten.”

“Det tidligere urapporterte brevet og AI-algoritmen var nøkkelutviklingen før styrets avsetting av Altman, mannen som fronter generativ AI, sa de to kildene,” skriver Reuters.

Derfor ønsker Musk å ta et steg tilbake

Reuters har ikke klart å skaffe til veie brevet, og OpenAI har ikke ønsket å kommentere saken overfor nyhetsbyrået, men i en intern melding til de ansatte bekreftes det et internt prosjekt omtalt som Q og et brev som skal ha blitt sendt til styret før helgens kaos. Utviklerne i selskapet skal være redde for at OpenAIs styre ikke skjønner konsekvensene av å kommersialisere den kraftige nye AI-en, eller LLM-en, om du vil.

Annonse


Dette er noe Elon Musk, som var en av de første bakernes av OpenAI, tidligere har advart mot:

“AI-laboratorier og uavhengige eksperter bør bruke pausen til i fellesskap å utvikle og implementere et sett med delte sikkerhetsprotokoller for avansert AI-design og -utvikling som er grundig revidert og overvåket av uavhengige eksterne eksperter. Disse protokollene bør sikre at systemer som følger dem er trygge utover enhver rimelig tvil. Dette betyr ikke en pause i AI-utviklingen generelt, bare et skritt tilbake fra det farlige kappløpet til stadig større uforutsigbare black-box-modeller med nye evner.”

Kan være nærme AGI

Det er OpenAIs race mot Artificial General Intelligence, forkortet AGI, som bekymrer de med kjennskap til prosjektet. Når en eller flere selskap når milepælen, er frykten at datamaskiner kan ta over de fleste arbeidsoppgaver mennesker i dag utfører, med påfølgende dramatiske økonomiske konsekvenser. For å nå et slikt AI-nivå må det som i dag er store språkmodeller også lære seg matte. Det er hva Q-prosjektet skal ha fått til, dog kun på grunnskolenivå.

Men å erobre evnen til å gjøre matematikk – der det bare er ett riktig svar – innebærer at AI vil ha større resonneringsevner som ligner menneskelig intelligens. Dette kan for eksempel brukes på ny vitenskapelig forskning, mener AI-forskere. I motsetning til en kalkulator som kan løse et begrenset antall operasjoner, kan AGI generalisere, lære og forstå.

Reuters

Annonse