OpenAI rozwija narzędzie do identyfikacji tekstów tworzonych przez sztuczną inteligencję

A OpenAI, odpowiedzialny za ChatGPT, uruchomiła we wtorek (31) narzędzie umożliwiające identyfikację tekstów tworzonych przez sztuczną inteligencję. Byłoby to antidotum na skargi nauczycieli z całego świata, którzy postrzegają platformę jako zagrożenie dla nauki.

Zatytułowany „Klasyfikator tekstu AI”, narzędzie działa w następujący sposób: pobierasz podejrzany tekst, który mógł zostać stworzony przez sztuczną inteligencję, i wklejasz go we wskazanym miejscu. Następnie witryna sprawdzi i zaklasyfikuje materiał pisemny jako: 

PUBLICIDADA

  • Jest bardzo mało prawdopodobne, że zostały wygenerowane przez sztuczną inteligencję
  • Mało prawdopodobny
  • Niejasny
  • Możliwe lub prawdopodobne.

Zrozumieć:


Narzędzie jest w fazie testów

Pomimo łatwości konsultacji z tekstem, szef wyrównania OpenAI, Jan Leike, powiedział w rozmowie z portalem Axios w Stanach Zjednoczonych, że mogą występować „fałszywie pozytywne i fałszywie negatywne wyniki”.

Osoba odpowiedzialna za OpenAI Mówi również, że aby zmniejszyć ryzyko awarii platformy, zaleca się, aby wklejane teksty zawierały więcej niż 1000 słów i najlepiej były w języku angielskim. 

Obawy dot ChatGPT

Obawy wokół treści generowanych przez sztuczną inteligencję pojawiły się po tym, jak nauczyciele i podmioty na całym świecie ujawnili, że ChatGPT był używany do czynności, które powinny być wykonywane przez ludzi. Na przykład szkoły w Nowym Jorku zakazały nawet stosowania sztucznej inteligencji.

PUBLICIDADA

A OpenAI mówi też, że pracuje nad innymi narzędziami do identyfikacji materiałów wytwarzanych przez sztuczną inteligencję. Alternatywą jest dołączenie znaków wodnych i ulepszenie witryny sprawdzającej tekst.

OpenAI rozwija narzędzie do identyfikacji tekstów wyprodukowanych przez sztuczną inteligencję (Reproduction OpenAI/Canva)

Dowiedz się więcej:

przewiń do góry