Изявлението беше направено миналия четвъртък (13).
Миналия месец хиляди експерти по авангардни технологии, включително Elon Musk и Стив Возняк, подписаха отворено писмо, призоваващо за шестмесечна пауза в обучението на AI системи, по-напреднали от GPT-4.
ПУБЛИЧНОСТ
Писмото подчертава нарастващата загриженост относно надпреварата за разработване на все по-мощен ИИ и рисковете, които това създава за обществото. Докато съвременните AI системи като GPT-4 вече могат да се конкурират с хората в общи задачи, писмото предупреждава за възможни информационни пристрастия, автоматизация на работата и риск от загуба на контрол над човешката цивилизация.
Алтман се съгласи с някои аспекти на отвореното писмо, по-специално по отношение на необходимостта от увеличаване на възможностите за сигурност при разработването на AI. Той заяви, че OpenAI взе обширни мерки за сигурност при обучението на GPT-4, включително външни одити и проверки за сигурност.
„Ние правим други неща освен GPT-4, които мисля, че имат всякакви проблеми със сигурността, които са важни за решаване и са напълно пропуснати в писмото“, каза Алтман.
Той обаче не е съгласен с предложената парична пауза за развитието на AI и отбеляза липсата на техническа специфика в писмото. Алтман също опроверга твърдението, че OpenAI беше обучение GPT-5, подчертавайки важността на точната оценка и мониторинг на сигурността на AI.
ПУБЛИЧНОСТ
Освен това той обясни, че целта на OpenAI е да насърчи глобалното ангажиране с AI, карайки хората и институциите да надграждат или адаптират съществуващите системи, за да създадат желаното бъдеще.
Наскоро докладвахме тук Newsverse че OpenAI обяви серия от инициативи, за да направи инструмента по-безопасен. Компанията имаpromeваша е да проведете задълбочено тестване, да потърсите обратна връзка от външни експерти и да си сътрудничите с правителствата за разработване на ефективни разпоредби.
Вижте също: