Italia eta Txinaren ostean, Espainiaren txanda da questionar edo ChatGPT pribatutasunari buruz

Datuak Babesteko Espainiako Agentziak (AEPD) Europar Batasuneko pribatutasunaren zaintzaileari eskatzen dio pribatutasun kezkak ebaluatzeko. ChatGPT. Ekintza honek AI sistemen mundu mailan gero eta kontrol gero eta handiagoa jarraitzen du. GEPDk aitortzen du Europa mailan erabaki koordinatuak behar direla norbanakoen eskubideetan eragina izan dezaketen eragiketak tratatzeko.

Agentzia eskatu ren gaia ChatGPT Datuak Babesteko Europako Batzordearen hurrengo Osoko Bilkuran sartzea, Datuak Babesteko Erregelamendu Orokorraren esparruan pribatutasunari buruz pentsatzeko ekintza bateratuak ahalbidetzeko.

PUBLIZITATEA

Asteartean, Frantziako pribatutasun-erregulatzaileak ere ikerketa bat iragarri zuen honekin lotutako kexen inguruan ChatGPT. Bien bitartean, Italiako datuen erregulatzaileak proposatutako neurriak aztertzen ari da OpenAI martxoaren 31n chatbot-en behin-behineko debekua eragin zuten kezkei erantzunez. Italiako erregulatzaileen batzordea asteartean (11) bildu zen gaia eztabaidatzeko.

Bien bitartean, AEBetako gobernua ere parte hartzen ari da AI eztabaidetan. AI eta Politika Digitalen Zentroak (CAIDP) kexa bat aurkeztu du AEBetako Merkataritza Batzorde Federalean (FTC), konpainiaren azken produktua dela eta. OpenAI, GPT-4-k, kontsumitzaileen babeserako lege federala urratzen du eta arrisku handiak sortzen ditu publikoarentzat. Gainera, Biden administrazioak iritzi publikoa eskatu du AI sistemen erantzukizun-neurriei buruz, segurtasun nazionalean eta hezkuntzan dituzten ondorioei buruzko kezkaren artean.

ChatGPT-4: bertsio berriak arazo zaharrak ditu
ChatGPT-4: bertsio berriak arazo zaharrak ditu

Txinan, ez da erabiltzailearen pribatutasuna soilik eztabaidatzen ari

Munduaren beste aldean, Txinak AI sorkuntzako zerbitzuak arautzeko arau multzo bat egin du. Txinako erregulatzaileek adierazi dute zerbitzu hauek Txinako balio sozialistekin bat egin behar dutela eta erregimenaren subertsioa, indarkeria, pornografia edo ordena sozial eta ekonomikoa hausten duten edukiak ekoiztea saihestu. Hornitzaileek datuen zilegitasuna ziurtatu behar dute eta diskriminazioa saihestu behar dute algoritmoen diseinuan eta prestakuntzan. Gainera, sorkuntzako AI zerbitzu-hornitzaileek segurtasun-ebaluazioak egin behar dituzte produktuak martxan jarri aurretik.

PUBLIZITATEA

Italia eta Txinaren ostean, Espainiaren txanda da questionar edo ChatGPT pribatutasunari buruz

Ulertu ere:

korritu gora