Els estàndards australians d'IA preocupen a les empreses per la seguretat en línia

Les empreses tecnològiques diuen que els nous estàndards de seguretat australians dificultaran, sense voler, que els sistemes d'IA generativa detectin i previnguin l'abús infantil en línia i el material pro-terrorisme.

Els estàndards cobreixen una sèrie de tecnologies, com ara llocs web, serveis d'emmagatzematge al núvol, missatgeria de text i aplicacions de xat. També cobreixen iintel·ligència artificial (IA) models d'aprenentatge automàtic generatius i de codi obert d'alt impacte.

PUBLICITAT

La WeProtect Global Alliance, un consorci sense ànim de lucre de més de 100 governs i 70 empreses que tenen com a objectiu l'explotació i l'abús sexual infantil en línia, va destacar la naturalesa del problema. Va dir que la IA de codi obert ja s'està utilitzant per produir material d'abús infantil i falsificacions profundes, i que els estàndards proposats capturen les plataformes i serveis correctes.

"En centrar-se en la possibilitat d'un ús indegut, el llindar reflecteix la realitat que fins i tot els models d'aprenentatge automàtic i d'intel·ligència artificial amb una exposició directa limitada a dades sensibles o conjunts de dades que contenen dades il·lícites encara es poden utilitzar malament per crear contingut il·legal, com ara "sintètics" sexuals infantils. abusar de material i falsificacions sexuals".

Però les empreses tecnològiques, incloses Microsoft, meta e IA d'estabilitat, va dir que les seves tecnologies s'estan desenvolupant amb garanties per evitar que s'utilitzin d'aquesta manera.

PUBLICITAT

A Microsoft va advertir que els estàndards, tal com s'han redactat, podrien limitar l'eficàcia dels models de seguretat d'IA utilitzats per detectar i marcar l'abús infantil o el material pro-terrorisme.

"Per garantir que els models d'IA i els sistemes de seguretat (com els classificadors) es puguin entrenar per detectar i marcar aquest contingut, és necessari que la IA estigui exposada a aquest contingut i que s'estableixin processos d'avaluació per mesurar i mitigar els riscos". , Vaig dir Microsoft.

"Les dades d'entrenament completament "netes" poden reduir l'eficàcia d'aquestes eines i reduir la probabilitat que funcionin amb precisió i delicadesa.

PUBLICITAT

"Un dels elements més prometedors de l'eina d'IA per a la moderació de contingut és la capacitat avançada d'avaluar el context; sense dades d'entrenament per donar suport a aquesta avaluació matisada, correm el risc de perdre els beneficis d'aquesta innovació".

Stability AI també va advertir que la IA tindria un paper important en la moderació en línia i que les definicions massa àmplies podrien dificultar la determinació del que s'ha de detectar per complir els estàndards proposats.

L'empresa matriu de Facebook, Meta, ho va dir mentre que el seu model Truca 2 tenir eines de seguretat i guies d'ús responsable, seria difícil aplicar les garanties quan es descarregui l'eina.

PUBLICITAT

"No ens és possible suspendre la prestació de Llama 2 després d'haver-se descarregat o cancel·lar un compte, o dissuadir, interrompre, detectar, informar o eliminar contingut de les plantilles que s'han descarregat", va dir la companyia.

O Google va recomanar que la intel·ligència artificial no s'inclogués als estàndards i que es considerés plenament com a part de la revisió actual del govern de la Llei de seguretat en línia i les expectatives bàsiques per a la seguretat en línia.

Les empreses tecnològiques també es van fer ressò dels comentaris fets per Apple La setmana passada, els estàndards han d'indicar explícitament que les propostes per escanejar serveis i missatges al núvol "quan sigui tècnicament factible" no ho fan.prometindrà xifratge, i la viabilitat tècnica abastarà més que simplement el cost per a una empresa per desenvolupar aquesta tecnologia.

PUBLICITAT

En un comunicat, Va dir la comissària de seguretat electrònica, Julie Inman Grant que els estàndards no exigirien que la indústria trenqués o debiliti l'encriptació, monitoritzi el text o escanegés indiscriminadament grans quantitats de dades personals, i el comissari ara estava considerant possibles esmenes per aclarir aquest punt.

“Fundament, eSegurança no creu que la indústria s'hagi d'eximir de la responsabilitat d'enfrontar-se a continguts il·legals allotjats i compartits lliurement a les seves plataformes. eSegurança assenyala que alguns grans serveis de missatgeria xifrada d'extrem a extrem ja estan prenent mesures per detectar aquest contingut nociu”, va dir.

Les versions finals dels estàndards es presentaran al parlament per a la seva consideració a finals d'any, va dir Inman Grant.

Llegiu també:

Desplaçar-se cap amunt