Crediti immagine: Curto Notizie/BingAI

Grandi Tecnologie promedeve combattere l’intelligenza artificiale “fuorviante” nelle elezioni statunitensi

La maggior parte delle più grandi aziende tecnologiche del mondo, inclusa Amazon, Google e Microsoft, hanno accettato di affrontare quella che chiamano "intelligenza artificiale (AI) ingannevole" nelle elezioni statunitensi.

Venti aziende hanno firmato un accordo conpromedover combattere i contenuti fuorvianti per gli elettori. Dicono che utilizzeranno la tecnologia per rilevare e neutralizzare il materiale. Ma un esperto del settore afferma che il patto volontario “farà ben poco per fermare la pubblicazione di contenuti dannosi”.

PUBBLICITÀ

O Accordo tecnologico per combattere l’uso ingannevole dell’intelligenza artificiale nelle elezioni del 2024 è stato annunciato alla Conferenza sulla sicurezza di Monaco venerdì (16). La questione ha guadagnato importanza perché si stima che quest’anno voteranno fino a quattro miliardi di persone in paesi come Stati Uniti, Regno Unito e India.

Tra gli impegni dell'accordo figura lo sviluppo di tecnologie per “mitigare i rischi” legati ai contenuti elettorali fuorvianti generati da intelligenza artificialee garantire trasparenza al pubblico sulle misure adottate dalle imprese.

Altre misure includono la condivisione reciproca delle migliori pratiche e l’educazione del pubblico su come identificare quando potrebbero vedere contenuti manipolati.

PUBBLICITÀ

Tra i firmatari figurano le piattaforme di social media X – precedentemente Twitter – Snap, Adobe e Meta, che possiede Facebook, Instagram e WhatsApp.

Tuttavia, secondo l'informatico, l'accordo presenta alcuni difetti Dottor Deepak Padmanabhan, della Queen's University di Belfast, coautore di un articolo su elezioni e intelligenza artificiale. Lo scienziato ha commentato in un’intervista che sarebbe promettente vedere le aziende riconoscere l’ampia gamma di sfide presentate dall’intelligenza artificiale.

Ma ha detto che era necessario intraprendere un’azione più “proattiva” piuttosto che aspettare che i contenuti venissero pubblicati e poi provare a rimuoverli. Ciò potrebbe significare che “contenuti AI più realistici, che potrebbero essere più dannosi, potrebbero rimanere sulla piattaforma più a lungo” rispetto a falsi evidenti che sono più facili da rilevare e rimuovere, ha suggerito.

PUBBLICITÀ

Il dottor Padmanabhan ha anche affermato che l'utilità dell'accordo sta nel fattopromeadottate perché mancavano sfumature nella definizione di contenuto dannoso. Ha fatto l’esempio del politico pakistano Imran Khan incarcerato che usa l’intelligenza artificiale per tenere discorsi mentre è in prigione.

“Anche questo dovrebbe essere rimosso?” chiese.

I firmatari dell'accordo affermano che si concentreranno sui contenuti che "falsificano o alterano in modo ingannevole l'aspetto, la voce o le azioni" delle figure chiave delle elezioni. Cercheranno anche di affrontare audio, immagini o video che forniscono false informazioni agli elettori su quando, dove e come possono votare.

"Abbiamo la responsabilità di garantire che questi strumenti non diventino armi durante le elezioni", ha affermato Brad Smith, presidente dell'ONU Microsoft.

PUBBLICITÀ

O Google e Meta hanno già delineato le loro politiche sulle immagini e sui video generati dall'intelligenza artificiale nella pubblicità politica, che richiedono agli inserzionisti di segnalare quando utilizzano deepfakes o contenuti che sono stati manipolati dall'intelligenza artificiale.

Leggi anche:

scorrere verso l'alto