Nagkaisa ang mga higanteng American AI para maghanap ng self-regulation

Google, Microsoft, Antropiko at OpenAI, apat sa mga kumpanyang Amerikano na nangunguna sa makabagong eksena ng Artificial Intelligence (AI), ay inihayag nitong Miyerkules (26) ang paglikha ng isang bagong propesyonal na katawan upang labanan ang mga panganib na nauugnay sa teknolohiyang ito.

Ang "Frontier Model Forum" ay magiging responsable para sa pag-promote ng "responsableng pag-unlad" ng pinaka-sopistikadong mga modelo ng AI at "pag-minimize ng mga potensyal na panganib," ayon sa isang press release.

ADVERTISING

Kaya, mga miyembropromekailangang magbahagi ng mabubuting gawi sa kanilang mga sarili at sa mga mambabatas, mananaliksik at asosasyon, upang hindi gaanong mapanganib ang mga sistemang ito.

Ang mabilis na pag-deploy ng generative AI, sa pamamagitan ng mga platform tulad ng ChatGPT (OpenAI), Bing (Microsoft) o Bard (Google), ay nagdudulot ng pag-aalala sa mga awtoridad at lipunang sibil.

Ang European Union (EU) ay tinatapos ang isang regulatory project para sa teknolohiyang ito na dapat magpataw ng mga obligasyon sa mga kumpanya sa sektor, gaya ng transparency sa mga user o kontrol ng tao sa mga makina.

ADVERTISING

Sa Estados Unidos, ang mga pampulitikang tensyon sa Kongreso ay humahadlang sa anumang pagsisikap sa larangang ito.

Isa ito sa mga dahilan kung bakit hinihiling ng White House ang mga interesadong partido na garantiyahan ang kaligtasan ng mga produkto nito, sa pangalan ng "moral na tungkulin" nito, sabi ng American Vice President, Kamala Harris, noong unang bahagi ng Mayo.

Noong nakaraang linggo, ang administrasyon ni Joe Biden ay nakakuha ng "mga pangako" mula sa Amazon, Anthropic, Google, Inflection, Layunin, Microsoft e OpenAI upang ipagtanggol ang "tatlong prinsipyo" sa pagbuo ng AI: kaligtasan, seguridad at tiwala.

ADVERTISING

Ang mga kumpanyang ito ay dapat na subukan ang kanilang mga programa nang maaga, labanan ang mga cyberattack at pandaraya, at maghanap ng mga paraan upang hudyat na ang nilalaman ay nabuo ng AI upang ito ay malinaw na napatotohanan bilang ganoon.

Hindi rin itinatanggi ng mga direktor ng mga kumpanyang ito ang mga panganib.

Sa Hunyo, Sam Altman, direktor ng OpenAI, at Demis Hassabis, presidente ng DeepMind (Google), hinimok ang paglaban sa "mga panganib ng pagkalipol" ng sangkatauhan na "nakaugnay sa AI".

Sa isang pagdinig sa kongreso, inendorso ni Altman ang lalong popular na ideya ng paglikha ng isang internasyonal na ahensya na sinisingil sa pag-regulate ng artificial intelligence, tulad ng mga umiiral sa ibang larangan.

ADVERTISING

Samantala, ang OpenAI ay nagtatrabaho sa isang tinatawag na "pangkalahatang" AI, na may mga kakayahang nagbibigay-malay na katulad ng sa mga tao.

Sa isang post noong Hulyo 6, sinabi ng kumpanya na nakatutok ito sa AI "mga frontier model," "highly sophisticated fundamental models na maaaring makakuha ng sapat na mapanganib na mga kakayahan upang magdulot ng malubhang panganib sa kaligtasan ng publiko."

Nagbabala rin ang higanteng Amerikano na ang mga mapanganib na mapagkukunang ito ay maaaring "bumangon nang hindi inaasahan" at na "talagang mahirap pigilan ang isang ipinatupad na modelo mula sa maling paggamit".

ADVERTISING

Magbasa nang higit pa:

mag-scroll pataas