Australische AI-standaarden maken bedrijven zorgen over online veiligheid

Technologiebedrijven zeggen dat nieuwe Australische veiligheidsnormen het voor generatieve AI-systemen onbedoeld moeilijker zullen maken om online kindermisbruik en pro-terrorismemateriaal op te sporen en te voorkomen.

De standaarden bestrijken een reeks technologieën, waaronder websites, cloudopslagdiensten, sms- en chattoepassingen. Ze dekken ook ikunstmatige intelligentie (AI) generatieve en open-source machine learning-modellen met hoge impact.

PUBLICITEIT

De WeProtect Global Alliance, een non-profit consortium van meer dan 100 overheden en 70 bedrijven die zich richten op online seksuele uitbuiting en misbruik van kinderen, benadrukte de aard van het probleem. Ze zei dat open source AI al wordt gebruikt om kindermisbruikmateriaal en deepfakes te produceren, en dat de voorgestelde normen de juiste platforms en diensten vastleggen.

“Door te focussen op de mogelijkheid van misbruik weerspiegelt de drempel de realiteit dat zelfs modellen voor machinaal leren en kunstmatige intelligentie met beperkte directe blootstelling aan gevoelige gegevens of datasets die illegale gegevens bevatten, nog steeds kunnen worden misbruikt om illegale inhoud te creëren, zoals ‘synthetische’ kinderporno. misbruikmateriaal en seksuele deepfakes.”

Maar technologiebedrijven, inclusief Microsoft, meta e Stabiliteit AI, zeiden dat hun technologieën worden ontwikkeld met waarborgen om te voorkomen dat ze op deze manier worden gebruikt.

PUBLICITEIT

A Microsoft waarschuwde dat de normen, zoals ze zijn opgesteld, de effectiviteit kunnen beperken van AI-beveiligingsmodellen die worden gebruikt om kindermisbruik of pro-terrorismemateriaal op te sporen en te signaleren.

“Om ervoor te zorgen dat AI-modellen en beveiligingssystemen (zoals classifiers) kunnen worden getraind om dergelijke inhoud te detecteren en te markeren, is het noodzakelijk dat de AI wordt blootgesteld aan dergelijke inhoud en dat er beoordelingsprocessen worden opgezet om de risico’s te meten en te beperken.” , Ik zei Microsoft.

“Volledig 'schone' trainingsgegevens kunnen de effectiviteit van dergelijke tools verminderen en de kans verkleinen dat ze met precisie en finesse zullen werken.

PUBLICITEIT

“Een van de meest veelbelovende elementen van de AI-tool voor contentmoderatie is het geavanceerde vermogen om de context te beoordelen – zonder trainingsgegevens ter ondersteuning van een dergelijke genuanceerde beoordeling lopen we het risico de voordelen van een dergelijke innovatie te missen.”

Stabiliteits-AI waarschuwde ook dat AI een grote rol zou spelen bij online moderatie, en te brede definities zouden het moeilijk kunnen maken om te bepalen wat moet worden gedetecteerd om aan de voorgestelde normen te voldoen.

Facebook's moederbedrijf, Meta, zei dat terwijl zijn model Lama 2 over beveiligingstools en handleidingen voor verantwoord gebruik beschikken, zou het moeilijk zijn om veiligheidsmaatregelen af ​​te dwingen wanneer de tool wordt gedownload.

PUBLICITEIT

“Het is voor ons niet mogelijk om de levering van Llama 2 op te schorten nadat het is gedownload of om een ​​account te beëindigen, of om inhoud van gedownloade sjablonen te ontmoedigen, verstoren, detecteren, rapporteren of verwijderen”, aldus het bedrijf.

O Google adviseerde om AI niet op te nemen in de normen en in plaats daarvan volledig te beschouwen als onderdeel van de huidige herziening door de overheid van de Online Safety Act en de kernverwachtingen voor online veiligheid.

Technologiebedrijven herhaalden ook de opmerkingen van Apple Vorige week moesten normen expliciet vermelden dat voorstellen om clouddiensten en berichten te scannen “wanneer technisch haalbaar” dat niet doenpromezal over encryptie beschikken, en de technische haalbaarheid zal meer omvatten dan alleen de kosten voor een bedrijf om dergelijke technologie te ontwikkelen.

PUBLICITEIT

In een verklaring, eSafety-commissaris Julie Inman Grant zei dat de normen niet van de industrie eisen dat zij de encryptie breken of verzwakken, tekst monitoren of zonder onderscheid grote hoeveelheden persoonlijke gegevens scannen, en de commissaris overweegt nu mogelijke wijzigingen om dit punt te verduidelijken.

“In wezen gelooft eSegurança niet dat de industrie moet worden vrijgesteld van verantwoordelijkheid voor het omgaan met illegale inhoud die vrijelijk wordt gehost en gedeeld op haar platforms. eSegurança merkt op dat sommige grote end-to-end gecodeerde berichtendiensten al stappen ondernemen om deze schadelijke inhoud te detecteren”, zei ze.

De definitieve versies van de normen zullen later dit jaar ter overweging aan het parlement worden voorgelegd, aldus Inman Grant.

Lees ook:

omhoog scrollen