Заявление было сделано в прошлый четверг (13).
В прошлом месяце тысячи экспертов по передовым технологиям, в том числе Elon Musk и Стив Возняк подписали открытое письмо с призывом к шестимесячной паузе в обучении систем искусственного интеллекта, более совершенных, чем GPT-4.
ПУБЛИЧНОСТЬ
В письме подчеркивается растущая обеспокоенность по поводу гонки за разработкой все более мощного ИИ и рисков, которые это представляет для общества. Хотя современные системы искусственного интеллекта, такие как GPT-4, уже могут конкурировать с людьми в решении общих задач, письмо предупреждает о возможной предвзятости информации, автоматизации работы и риске потери контроля над человеческой цивилизацией.
Альтман согласился с некоторыми аспектами открытого письма, в частности с необходимостью повышения безопасности при разработке ИИ. Он заявил, что OpenAI при обучении GPT-4 приняли обширные меры безопасности, включая внешний аудит и проверки безопасности.
«Мы делаем и другие вещи, помимо GPT-4, которые, я думаю, связаны со всеми видами проблем безопасности, которые важно решить и которые были полностью исключены из письма», — сказал Альтман.
Однако он не согласился с предложенной денежной паузой в развитии ИИ и отметил отсутствие технической конкретики в письме. Альтман также опроверг утверждение о том, что OpenAI обучал GPT-5, подчеркивая важность точной оценки и мониторинга безопасности ИИ.
ПУБЛИЧНОСТЬ
Он далее пояснил, что цель OpenAI заключается в поощрении глобального взаимодействия с искусственным интеллектом, побуждая отдельных лиц и учреждения модернизировать или адаптировать существующие системы для создания желаемого будущего.
Недавно мы сообщали здесь о Ньюсверсо что OpenAI объявила о ряде инициатив, направленных на повышение безопасности инструмента. Компания имеетpromeвы можете провести тщательное тестирование, получить отзывы от внешних экспертов и сотрудничать с правительствами для разработки эффективных нормативных актов.
См. также: