Flere medlemmer af Europa-Parlamentet har opfordret til et globalt topmøde for at behandle styringen af avancerede AI-systemer på grund af bekymringer om de potentielle risici og skader forbundet med teknologien. Ud over den allerede foreslåede AI-lov opfordrer lovgivere til et bredere sæt af regler for at overvåge en bredere vifte af AI-værktøjer.
ANNONCER
For nylig et åbent brev, underskrevet af Elon Musk og tusindvis af teknologieksperter, opfordrede til et midlertidigt stop for udviklingen af avancerede AI-systemer, herunder ChatGPT. Brevet advarede om, at ukontrolleret kunstig intelligens kunne sprede desinformation på globalt plan, og at kunstig intelligens i sidste ende kunne overgå menneskelig intelligens, hvilket gør folk forældede og udskiftelige.
Elon har dog selv udviklet sin AI, TruthGPT.
For en advokat skal kunstig intelligens reguleres, men graden af statslig indblanding i dette er stadig ukendt
For advokaten João Henrique Orssato, specialist i offentlig ret og generel AI-databeskyttelseslov Det burde faktisk være reguleret, men der er nogle vigtige detaljer, der skal tages i betragtning:
ANNONCER
»Spørgsmålet om, hvorvidt det skal reguleres eller ej, er allerede overstået. I dag er der regulering for alt, det har internettet selv allerede. Spørgsmålet er, hvor meget dosering der skal reguleres. Hvad er graden af indblanding, som staten bør have i dette?"
Mens nogle medlemmer af parlamentet har udtrykt lignende bekymringer, er de uenige i nogle af de mere alarmerende udtalelser i det åbne brev. Alle er dog enige om, at der er behov for en stor politisk indsats for at håndtere den hurtige udvikling af kunstig intelligens. Det parlamentariske udvalg, der debatterer AI-lovforslaget, som er på 108 sider, håber at nå til enighed inden den 26. april.
Det er værd at huske på, at Italien i sidste måned forbød ChatGPT. Ifølge myndigheder er AI mistænkt for at krænke privatlivets fred og medpromesikre brugernes sikkerhed. Endelig gav landet indtil 30. april for OpenAI regularisere.
Stadig om kunstig intelligens: