Australské standardy umělé inteligence znepokojují společnosti ohledně online bezpečnosti

Technologické společnosti tvrdí, že nové australské bezpečnostní standardy nechtěně ztíží generativním systémům umělé inteligence odhalování a prevenci online zneužívání dětí a materiálů podporujících terorismus.

Standardy pokrývají řadu technologií, včetně webových stránek, služeb cloudového úložiště, textových zpráv a chatovacích aplikací. Pokrývají také Iumělá inteligence (AI) vysoce účinné generativní a open source modely strojového učení.

PUBLICITA

WeProtect Global Alliance, neziskové konsorcium více než 100 vlád a 70 společností zaměřených na online sexuální vykořisťování a zneužívání dětí, zdůraznilo povahu problému. Řekla, že AI s otevřeným zdrojovým kódem se již používá k výrobě materiálů týkajících se zneužívání dětí a deepfakes a navrhované standardy zachycují správné platformy a služby.

„Tím, že se tato hranice zaměřuje na možnost zneužití, odráží skutečnost, že i modely strojového učení a umělé inteligence s omezeným přímým vystavením citlivým datům nebo datovým sadám obsahujícím nezákonná data mohou být stále zneužity k vytváření nezákonného obsahu, jako je „syntetický“ sexuální sexuální zneužívání materiálních a sexuálních deepfakes.“

Ale technologické společnosti, včetně Microsoft, meta e Stabilita AI, uvedl, že jejich technologie jsou vyvíjeny s ochrannými opatřeními, která zabrání jejich použití tímto způsobem.

PUBLICITA

A Microsoft varoval, že standardy, jak byly navrženy, by mohly omezit účinnost bezpečnostních modelů AI používaných k odhalování a označování zneužívání dětí nebo materiálů podporujících terorismus.

„Aby bylo zajištěno, že modely umělé inteligence a bezpečnostní systémy (jako jsou klasifikátory) mohou být trénovány k detekci a označování takového obsahu, je nutné, aby AI byla takovému obsahu vystavena a aby byly zavedeny procesy hodnocení pro měření a zmírňování rizik.“ , Řekl jsem Microsoft.

„Zcela „čistá“ tréninková data mohou snížit účinnost takových nástrojů a snížit pravděpodobnost, že budou fungovat přesně a jemně.

PUBLICITA

„Jedním z nejslibnějších prvků nástroje umělé inteligence pro moderování obsahu je pokročilá schopnost posuzovat kontext – bez trénovacích dat na podporu takového jemného hodnocení riskujeme, že promeškáme výhody takové inovace.“

Stability AI také varovala, že AI bude hrát velkou roli v online moderování a příliš široké definice by mohly ztížit určení toho, co musí být detekováno, aby byly splněny navrhované standardy.

Mateřská společnost Facebooku, Meta, uvedla, že zatímco její model Llama 2 mít bezpečnostní nástroje a příručky pro zodpovědné používání, bylo by obtížné prosadit ochranná opatření, když je nástroj stažen.

PUBLICITA

„Není pro nás možné pozastavit poskytování Llama 2 poté, co byla stažena, nebo ukončit účet, nebo odrazovat, narušovat, detekovat, hlásit nebo odstraňovat obsah ze stažených šablon,“ uvedla společnost.

O Google doporučil, aby umělá inteligence nebyla zahrnuta do standardů a místo toho byla plně považována za součást aktuálního vládního přezkumu zákona o online bezpečnosti a základních očekávání pro online bezpečnost.

Technologické společnosti také zopakovaly připomínky Apple minulý týden musí standardy výslovně uvádět, že návrhy na skenování cloudových služeb a zpráv „pokud je to technicky proveditelné“ nepromebude mít šifrování a technická proveditelnost bude zahrnovat více než jen náklady společnosti na vývoj takové technologie.

PUBLICITA

v prohlášení Řekla to komisařka pro eSafety Julie Inman Grantová že normy nebudou vyžadovat, aby průmysl prolomil nebo oslabil šifrování, sledoval text nebo bez rozdílu skenoval velké množství osobních údajů, a komisař nyní zvažoval možné pozměňovací návrhy, které by tento bod objasnily.

„eSegurança v zásadě nevěří, že by toto odvětví mělo být zproštěno odpovědnosti za to, že bude čelit nelegálnímu obsahu, který je volně hostován a sdílen na jejích platformách. eSegurança poznamenává, že některé velké end-to-end šifrované služby pro zasílání zpráv již podnikají kroky k detekci tohoto škodlivého obsahu,“ řekla.

Konečné verze standardů budou předloženy parlamentu ke zvážení koncem tohoto roku, řekl Inman Grant.

Čtěte také:

posunout nahoru