Uttalelsen ble avgitt sist torsdag (13).
Forrige måned, tusenvis av banebrytende teknologieksperter, inkludert Elon Musk og Steve Wozniak, signerte et åpent brev som ber om en seks måneders pause i trening av AI-systemer mer avanserte enn GPT-4.
REKLAME
Brevet fremhever økende bekymringer om kappløpet om å utvikle stadig kraftigere AI og risikoen dette utgjør for samfunnet. Mens moderne AI-systemer som GPT-4 allerede kan konkurrere med mennesker i generelle oppgaver, advarer brevet om mulig informasjonsskjevhet, jobbautomatisering og risikoen for å miste kontrollen over menneskelig sivilisasjon.
Altman var enig i noen aspekter av det åpne brevet, spesielt angående behovet for å øke sikkerhetsfunksjonene i AI-utvikling. Han uttalte at OpenAI tok omfattende sikkerhetstiltak ved opplæring av GPT-4, inkludert eksterne revisjoner og sikkerhetssjekker.
"Vi gjør andre ting enn GPT-4 som jeg tror har alle slags sikkerhetsproblemer som er viktige å ta tak i og som ble fullstendig utelatt fra brevet," sa Altman.
Han var imidlertid uenig i den foreslåtte monetære pausen for AI-utvikling og bemerket mangelen på teknisk spesifisitet i brevet. Altman tilbakeviste også påstanden om at OpenAI trente GPT-5, og understreket viktigheten av nøyaktig AI-sikkerhetsvurdering og -overvåking.
REKLAME
Han forklarte videre at formålet med OpenAI er å oppmuntre til globalt engasjement med AI, og få enkeltpersoner og institusjoner til å oppgradere eller tilpasse eksisterende systemer for å skape den ønskede fremtiden.
Vi har nylig rapportert her om Newsverse at OpenAI har annonsert en rekke initiativer for å gjøre verktøyet sikrere. Selskapet harpromedin til å gjennomføre grundige tester, søke tilbakemelding fra eksterne eksperter og samarbeide med myndigheter for å utvikle effektive forskrifter.
Veja também: