Australske AI-standarder bekymrer selskaper om nettsikkerhet

Teknologiske selskaper sier at nye australske sikkerhetsstandarder utilsiktet vil gjøre det vanskeligere for generative AI-systemer å oppdage og forhindre online barnemishandling og materiale som fremmer terrorisme.

Standardene dekker en rekke teknologier, inkludert nettsteder, skylagringstjenester, tekstmeldinger og chatteapplikasjoner. De dekker også ikunstig intelligens (AI) høyeffektive generative og åpen kildekode maskinlæringsmodeller.

REKLAME

WeProtect Global Alliance, et non-profit konsortium av mer enn 100 regjeringer og 70 selskaper som retter seg mot seksuell utnyttelse og overgrep mot barn på nettet, fremhevet problemets natur. Hun sa at åpen kildekode AI allerede brukes til å produsere materiale om overgrep mot barn og dype forfalskninger, og de foreslåtte standardene fanger opp de riktige plattformene og tjenestene.

"Ved å fokusere på muligheten for misbruk, reflekterer terskelen realiteten at selv maskinlæring og kunstig intelligens-modeller med begrenset direkte eksponering for sensitive data eller datasett som inneholder ulovlige data fortsatt kan misbrukes til å lage ulovlig innhold, for eksempel "syntetisk" seksuelt barn misbruksmateriale og seksuelle deepfakes.»

Men teknologiselskaper, inkludert Microsoft, Meta e Stabilitet AI, sa at deres teknologier blir utviklet med sikkerhetstiltak for å forhindre at de brukes på denne måten.

REKLAME

A Microsoft advarte om at standardene, slik de er utarbeidet, kan begrense effektiviteten til AI-sikkerhetsmodeller som brukes til å oppdage og flagge barnemishandling eller materiale som fremmer terrorisme.

"For å sikre at AI-modeller og sikkerhetssystemer (som klassifikatorer) kan trenes til å oppdage og flagge slikt innhold, er det nødvendig at AI-en blir eksponert for slikt innhold og at vurderingsprosesser er etablert for å måle og redusere risikoene." , Jeg fortalte Microsoft.

"Helt "rene" treningsdata kan redusere effektiviteten til slike verktøy og redusere sannsynligheten for at de vil fungere med presisjon og finesse.

REKLAME

"Et av de mest lovende elementene i AI-verktøyet for innholdsmoderering er den avanserte evnen til å vurdere kontekst – uten opplæringsdata for å støtte en slik nyansert vurdering, risikerer vi å gå glipp av fordelene med slik innovasjon."

Stabilitet AI advarte også om at AI ville spille en stor rolle i nettmoderering, og for brede definisjoner kan gjøre det vanskelig å bestemme hva som må oppdages for å oppfylle de foreslåtte standardene.

Facebooks morselskap, Meta, sa at mens sin modell Lama 2 har sikkerhetsverktøy og guider for ansvarlig bruk, ville det være vanskelig å håndheve sikkerhetstiltak når verktøyet lastes ned.

REKLAME

"Det er ikke mulig for oss å suspendere leveringen av Llama 2 etter at den har blitt lastet ned eller avslutte en konto, eller å fraråde, forstyrre, oppdage, rapportere eller fjerne innhold fra maler som har blitt lastet ned," sa selskapet.

O Google anbefalt at AI ikke inkluderes i standardene og i stedet vurderes fullt ut som en del av regjeringens nåværende gjennomgang av nettsikkerhetsloven og kjerneforventninger for nettsikkerhet.

Teknologiselskaper gjentok også kommentarer fra Apple forrige uke at standarder eksplisitt må angi at forslag om å skanne skytjenester og meldinger «når det er teknisk mulig» ikkepromevil ha kryptering, og teknisk gjennomførbarhet vil omfatte mer enn bare kostnaden for et selskap å utvikle slik teknologi.

REKLAME

I en uttalelse, eSafety Commissioner Julie Inman Grant sa at standardene ikke ville kreve at industrien bryter eller svekker kryptering, overvåker tekst eller vilkårlig skanne store mengder personopplysninger, og kommisjonæren vurderte nå mulige endringer for å klargjøre dette punktet.

"Grunnleggende sett mener ikke eSegurança at industrien bør fritas fra ansvar for å møte ulovlig innhold som fritt vert vert og delt på plattformene deres. eSegurança bemerker at noen store ende-til-ende-krypterte meldingstjenester allerede tar skritt for å oppdage dette skadelige innholdet, sa hun.

Endelige versjoner av standardene vil bli presentert for parlamentet for behandling senere i år, sa Inman Grant.

Les også:

bla opp