OpenAI și Google va fi obligat să informeze guvernul despre modelele AI https://t.co/UbJrrRJXGy
- Mashable (@mashable) Ianuarie 29, 2024
Supravegherea reglementară
O Guvernul SUA stabilește un cadru să cerceteze și să revizuiască dezvoltarea de noi modele lingvistice majore de către companiile lingvistice inteligência artificială, concentrându-se pe procesele sale de formare și pe rezultatele de siguranță.
PUBLICITATE
Ordin executiv al AI
Inițiativa face parte dintr-un ordin executiv care cere companiilor să notifice guvernul federal cu privire la orice dezvoltare a modelului de fundație care prezintă riscuri semnificative pentru securitatea națională, securitatea economică sau sănătatea și siguranța publică.
Concentrați-vă pe modelele de bază
Regulamentul vizează modele de bază, cum ar fi GPT-4 de la OpenAI și Gemini do Google, în special cei cu o putere de calcul fără precedent din cauza riscurilor potențiale de securitate națională.
Implicațiile pentru industria AI
- O mai mare transparență: companiile de inteligență artificială vor trebui să fie mai transparente cu privire la procesele lor de dezvoltare, în special atunci când antrenează noi modele lingvistice mari, împărtășind detalii cu guvernul.
- Accent pe siguranță și securitate: se va pune un accent mai mare pe aspectele de siguranță și securitate ale dezvoltării AI, companiile împărtășind rezultatele testelor de securitate pentru revizuire guvernamentală.
- Considerații internaționale: Furnizorii de cloud computing din SUA vor trebui să dezvăluie când entitățile din afara SUA își folosesc serviciile pentru a instrui modele lingvistice mari, adăugând o dimensiune internațională supravegherii reglementărilor.
Citește și: