W wydane oświadczenie przez firmę ujawniono, że GPT-4 nie jest całkowicie niezawodny. Według własnego OpenAI, GPT-4 ma problemy z rozumowaniem, jest nadal bardzo naiwny i nie radzi sobie z trudnymi problemami. To jeszcze bardziej zwiększa potrzebę, aby ludzie obsługiwali maszynę z uwagą i ostrożnością.
PUBLICIDADA
„W miarę jak systemy sztucznej inteligencji stają się coraz bardziej powszechne, osiągnięcie wysokiego stopnia niezawodności w tych interwencjach będzie coraz bardziej krytyczne. Na razie konieczne jest uzupełnienie tych ograniczeń technikami bezpieczeństwa na czas wdrożenia, takimi jak monitorowanie nadużyć” – stwierdziła firma.
GPT-4 jest wydajny, ale problemy nadal występują
Pomimo przyznania się do wewnętrznych problemów z systemem, firma podkreśliła, że narzędzie działa wydajnie. Ponadto OpenAI zatrudnił szereg profesjonalistów, którzy krytycznie wykorzystali sztuczną inteligencję i przesłali opinie dotyczące ulepszeń systemu.
Według wewnętrznych testów, ChatGPT-4 jest o 40% lepszy od poprzedniej wersji. A OpenAI stwierdził, że zmniejszyło to skłonność sztucznej inteligencji do reagowania na polecenia zależne od treści o 82% w porównaniu z GPT-3.5. W przypadkach technicznych lub szkodliwych dla człowieka, takich jak prośby o pomoc medyczną, samookaleczenie lub tematy poufne, narzędzie poprawiło swoje działanie o 29%. Zmniejszyli w ten sposób ryzyko szkodliwego korzystania z Chatu.