Declarația a fost făcută joia trecută (13).
Luna trecută, mii de experți în tehnologie de ultimă oră, inclusiv Elon Musk și Steve Wozniak, au semnat o scrisoare deschisă prin care solicită o pauză de șase luni în instruirea sistemelor AI mai avansate decât GPT-4.
PUBLICITATE
Scrisoarea evidențiază preocupările tot mai mari cu privire la cursa pentru dezvoltarea IA din ce în ce mai puternică și riscurile pe care aceasta le prezintă pentru societate. În timp ce sistemele AI contemporane, cum ar fi GPT-4, pot deja concura cu oamenii în sarcini generale, scrisoarea avertizează asupra posibilelor părtiniri informaționale, automatizării locurilor de muncă și riscul de a pierde controlul asupra civilizației umane.
Altman a fost de acord cu unele aspecte ale scrisorii deschise, în special în ceea ce privește necesitatea de a crește capacitățile de securitate în dezvoltarea AI. El a declarat că OpenAI a luat măsuri ample de securitate la instruirea GPT-4, inclusiv audituri externe și verificări de securitate.
„Facem și alte lucruri, în afară de GPT-4, care cred că au tot felul de probleme de securitate care sunt importante de abordat și care au fost complet excluse din scrisoare”, a spus Altman.
Cu toate acestea, el nu a fost de acord cu pauza monetară propusă pentru dezvoltarea IA și a remarcat lipsa de specificitate tehnică în scrisoare. Altman a respins, de asemenea, afirmația că OpenAI antrena GPT-5, subliniind importanța evaluării și monitorizării precise a securității AI.
PUBLICITATE
El a explicat în continuare că obiectivul de OpenAI este de a încuraja angajamentul global cu AI, determinând indivizii și instituțiile să modernizeze sau să adapteze sistemele existente pentru a crea viitorul dorit.
Am raportat recent aici Newsverse că OpenAI a anunțat o serie de inițiative pentru a face instrumentul mai sigur. Compania arepromepentru a efectua teste amănunțite, pentru a căuta feedback de la experți externi și pentru a colabora cu guvernele pentru a dezvolta reglementări eficiente.
Veja também: