OpenAI wydaje oświadczenie po oskarżeniach i zakazach używania ChatGPT

Znasz to powiedzenie: wystający gwóźdź wymaga wbicia najwięcej? Wydaje się więc, że OpenAI Od czasu pomyślnej premiery pod koniec ubiegłego roku nie było to łatwe. Oprócz niezliczonej krytyki w mediach społecznościowych, grupa wpływowych szefów światowych technologii poprosiła firmę o zaprzestanie na jakiś czas rozwoju sztucznej inteligencji. Ponadto w zeszłym tygodniu firmie nakazano zakaz prowadzenia działalności we Włoszech. Odtąd właściciel firmy ChatGPT opublikował oświadczenie, w którym wyraził swoje zaniepokojenie tematami poruszanymi przez ekspertów: bezpieczeństwem i prywatnością. Z tonem mea culpa, OpenAI opublikowała w ubiegłą środę (5) środki podjęte w celu ulepszenia technologii.

O przekazane, opublikowany na stronie internetowej firmy, przybliża tematykę dotyczącą prywatności, bezpieczeństwa danych, ochrony dzieci przez narzędzie oraz przydatnych nowości. 

PUBLICIDADA

Komunikat z OpenAI

Firma zdaje sobie sprawę, że narzędzia AI oferują ludziom wiele korzyści, ale niosą ze sobą także realne ryzyko. Firma twierdzi, że przed wypuszczeniem jakiegokolwiek nowego systemu przeprowadza rygorystyczne testy, w których biorą udział eksperci zewnętrzni w celu uzyskania opinii.

OpenAI stwierdza, że ​​zastosował środki mające na celu ochronę dzieci

Kolejnym krytycznym przedmiotem zainteresowania OpenAI jest ochrona dzieci. Firma wymaga, aby osoby, które ukończyły 18 lat – lub 13 lub więcej za zgodą rodziców – mogły korzystać z narzędzi sztucznej inteligencji i posiada rygorystyczne zasady dotyczące między innymi treści zawierających nienawiść, napastliwość, przemoc lub treści dla dorosłych. 

Ponadto firma twierdzi, że podejmuje znaczne wysiłki, aby zminimalizować potencjał swoich modeli do generowania treści szkodliwych dla dzieci i współpracuje z organizacjami takimi jak Khan Academy w celu tworzenia dostosowanych do indywidualnych potrzeb rozwiązań bezpieczeństwa dla środowisk edukacyjnych.

PUBLICIDADA

Veja também:

przewiń do góry