OpenAI e Google będą zobowiązani do powiadamiania rządu USA o modelach AI

Rząd USA wdraża nowe zasady monitorowania tworzenia podstawowych modeli sztucznej inteligencji (AI). Firmy takie jak OpenAI o Google Muszą teraz składać rządowi sprawozdania z postępów w opracowywaniu nowych, obszernych modeli językowych i przekazywać informacje dotyczące bezpieczeństwa.

Nadzór regulacyjny

O Rząd USA ustanawia ramy badanie i przegląd rozwoju nowych głównych modeli językowych przez firmy językowe inteligência sztuczne, koncentrując się na procesach szkoleniowych i wynikach w zakresie bezpieczeństwa.

PUBLICIDADA

Rozkaz wykonawczy AI

Inicjatywa stanowi część rozporządzenia wykonawczego, które nakłada na firmy obowiązek powiadamiania rządu federalnego o wszelkich zmianach w modelu fundacji, które stwarzają poważne ryzyko dla bezpieczeństwa narodowego, bezpieczeństwa gospodarczego lub zdrowia i bezpieczeństwa publicznego.

Skoncentruj się na podstawowych modelach

Rozporządzenie dotyczy podstawowych modeli, takich jak GPT-4 z OpenAI o Gemini do Google, zwłaszcza tych o niespotykanej dotąd mocy obliczeniowej ze względu na potencjalne ryzyko dla bezpieczeństwa narodowego.

Konsekwencje dla branży AI

  • Większa przejrzystość: firmy zajmujące się sztuczną inteligencją będą musiały zachować większą przejrzystość w zakresie swoich procesów rozwoju, zwłaszcza podczas szkolenia dużych nowych modeli językowych i udostępniania szczegółów rządowi.
  • Nacisk na bezpieczeństwo i ochronę: większy nacisk zostanie położony na aspekty bezpieczeństwa i ochrony w rozwoju sztucznej inteligencji, a firmy będą udostępniać wyniki testów bezpieczeństwa do przeglądu rządowego.
  • Względy międzynarodowe: amerykańscy dostawcy usług w chmurze będą musieli ujawniać, kiedy podmioty spoza USA korzystają z ich usług w celu szkolenia modeli dużych języków, co nada nadzorowi regulacyjnemu międzynarodowy wymiar.

Przeczytaj także:

przewiń do góry