Erklæringen blev afgivet sidste torsdag (13).
I sidste måned var tusindvis af banebrydende teknologieksperter, bl.a Elon Musk og Steve Wozniak, underskrev et åbent brev, der opfordrede til en pause på seks måneder i træning af AI-systemer, der er mere avancerede end GPT-4.
ANNONCER
Brevet fremhæver voksende bekymring over kapløbet om at udvikle stadig mere kraftfuld kunstig intelligens og de risici, dette udgør for samfundet. Mens nutidige AI-systemer som GPT-4 allerede kan konkurrere med mennesker i generelle opgaver, advarer brevet om mulig informationsbias, jobautomatisering og risikoen for at miste kontrollen over den menneskelige civilisation.
Altman var enig i nogle aspekter af det åbne brev, specifikt angående behovet for at øge sikkerhedskapaciteterne i AI-udvikling. Han oplyste, at OpenAI tog omfattende sikkerhedsforanstaltninger ved træning af GPT-4, herunder eksterne audits og sikkerhedstjek.
"Vi laver andre ting udover GPT-4, som jeg tror har alle slags sikkerhedsproblemer, som er vigtige at tage fat på, og som blev fuldstændig udeladt af brevet," sagde Altman.
Han var dog uenig i den foreslåede monetære pause i AI-udvikling og bemærkede manglen på teknisk specificitet i brevet. Altman afviste også påstanden om, at OpenAI trænede GPT-5, der understregede vigtigheden af nøjagtig AI-sikkerhedsvurdering og -overvågning.
ANNONCER
Han forklarede endvidere, at formålet med OpenAI er at tilskynde til globalt engagement med kunstig intelligens, hvilket får enkeltpersoner og institutioner til at opgradere eller tilpasse eksisterende systemer for at skabe den ønskede fremtid.
Vi har for nylig rapporteret her om Newsverse at OpenAI har annonceret en række initiativer, der skal gøre værktøjet mere sikkert. Virksomheden harpromedin til at udføre grundige tests, søge feedback fra eksterne eksperter og samarbejde med regeringer om at udvikle effektive regler.
Veja também: