Заява була зроблена минулого четверга (13).
Минулого місяця тисячі експертів із передових технологій, у тому числі Elon Musk і Стів Возняк підписали відкритий лист із закликом до шестимісячної паузи в навчанні систем штучного інтелекту, більш просунутих, ніж GPT-4.
ПУБЛІЦИДА
У листі висвітлюється зростаюче занепокоєння щодо гонки за розробкою все більш потужного ШІ та ризиків, які це створює для суспільства. Хоча сучасні системи штучного інтелекту, такі як GPT-4, уже можуть конкурувати з людьми у загальних завданнях, лист попереджає про можливу інформаційну упередженість, автоматизацію роботи та ризик втрати контролю над людською цивілізацією.
Альтман погодився з деякими аспектами відкритого листа, зокрема щодо необхідності підвищення можливостей безпеки при розробці ШІ. Він заявив, що OpenAI під час навчання GPT-4 вжито значних заходів безпеки, включаючи зовнішні аудити та перевірки безпеки.
«Ми робимо інші речі, окрім GPT-4, які, на мою думку, мають усілякі проблеми безпеки, які важливо вирішити, і які були повністю виключені з листа», — сказав Альтман.
Однак він не погодився із запропонованою грошовою паузою щодо розробки штучного інтелекту та зазначив відсутність технічної конкретики в листі. Альтман також спростував твердження про те, що OpenAI був тренінг GPT-5, наголошуючи на важливості точної оцінки та моніторингу безпеки ШІ.
ПУБЛІЦИДА
Далі він пояснив, що метою OpenAI полягає в тому, щоб заохочувати глобальну взаємодію зі штучним інтелектом, спонукаючи окремих осіб та установи оновлювати або адаптувати існуючі системи для створення бажаного майбутнього.
Нещодавно ми повідомляли тут Newsverse що OpenAI оголосила про серію ініціатив, щоб зробити інструмент безпечнішим. Компанія маєpromeВи маєте провести ретельне тестування, отримати відгуки від зовнішніх експертів і співпрацювати з урядами для розробки ефективних правил.
Дивіться також: