Uttalandet gjordes i torsdags (13).
Förra månaden, tusentals banbrytande teknikexperter, inklusive Elon Musk och Steve Wozniak, undertecknade ett öppet brev som kräver en sex månader lång paus i träning av AI-system mer avancerade än GPT-4.
REKLAM
Brevet belyser växande oro för kapplöpningen att utveckla allt kraftfullare AI och de risker detta innebär för samhället. Medan samtida AI-system som GPT-4 redan kan konkurrera med människor i allmänna uppgifter, varnar brevet för möjlig informationsbias, jobbautomatisering och risken att förlora kontrollen över den mänskliga civilisationen.
Altman höll med om vissa aspekter av det öppna brevet, särskilt angående behovet av att öka säkerhetskapaciteten i AI-utveckling. Han uppgav att OpenAI vidtog omfattande säkerhetsåtgärder vid utbildningen av GPT-4, inklusive externa revisioner och säkerhetskontroller.
"Vi gör andra saker förutom GPT-4 som jag tror har alla typer av säkerhetsproblem som är viktiga att ta itu med och som helt lämnades utanför brevet," sa Altman.
Han höll dock inte med om den föreslagna monetära pausen för AI-utveckling och noterade avsaknaden av teknisk specificitet i brevet. Altman tillbakavisade också påståendet att OpenAI tränade GPT-5, och betonade vikten av korrekt AI-säkerhetsbedömning och övervakning.
REKLAM
Han förklarade vidare att syftet med OpenAI är att uppmuntra globalt engagemang med AI, vilket driver individer och institutioner att uppgradera eller anpassa befintliga system för att skapa den önskade framtiden.
Vi rapporterade nyligen här om Newsverse att OpenAI har aviserat en rad initiativ för att göra verktyget säkrare. Företaget harpromedin för att utföra grundliga tester, söka feedback från externa experter och samarbeta med regeringar för att utveckla effektiva regler.
Veja também: