Miesiące po uruchomieniu ChatGPTużytkownicy mediów społecznościowych zaczęli dzielić się swoimi doświadczeniami z narzędziem w Internecie. Zwrócono uwagę na kilka nietypowych komentarzy. Są to osoby, które korzystały z programu, aby wyleczyć się z traumy psychicznej.
PUBLICIDADA
Po reperkusji nastąpił większy ruch użytkowników rozważających wykorzystanie sztucznej inteligencji w celu poprawy zdrowia psychicznego:
Rozmawialiśmy z Julianą Vieirą, doktorem psychologii, aby zrozumieć to zjawisko i problemy związane z wykorzystaniem narzędzia sztucznej inteligencji w roli terapeuty.
AI nie jest terapeutą i źródła, z których korzysta, mogą nie być wiarygodne
Dla Juliany „sztuczna inteligencja jest bardzo interesującą strategią, ale nie można jej uważać za terapeutę”.
Profesjonalista wyjaśnia, że głównym problemem związanym z używaniem maszyny do wspomagania zdrowia psychicznego jest to, że sztuczna inteligencja może nie być dokładna w identyfikowaniu problemu danej osoby, co może jeszcze bardziej zdezorientować użytkownika.
PUBLICIDADA
„Nie widzę problemu w szukaniu (pomocy przy AI). Pytaniem bez odpowiedzi pozostaje, czy źródła są wiarygodne, czy nie. Ważne jest, aby ludzie filtrowali informacje i potwierdzali je na innych stronach internetowych zawierających informacje naukowe”.
Jednym z argumentów osób poszukujących pomocy psychologicznej w ChatGPT jest dostępność. Ponieważ ma bezpłatny i intuicyjny dostęp, ludzie mogą po prostu otworzyć przeglądarkę i dać sobie spokój. Dla psycholog Juliany Vieiry terapeuty nie zastąpi maszyna.
„Maszyna może pomóc, ale nadal zaleca się psychoterapię pod okiem wyspecjalizowanego specjalisty, psychologa, który ma kwalifikacje, wiedzę, etykę i dbałość o poufność pacjenta”.
PUBLICIDADA
Ponieważ stosowanie sztucznej inteligencji w terapeucie nadal jest zawodne, jakie byłoby rozwiązanie dla osób, które nie czują się komfortowo, przedstawiając swoje problemy profesjonalistom w konwencjonalny sposób?
„Rozwiązaniem jest pokonanie barier w dotarciu do psychologa. Od kilku lat prowadzimy psychoterapię online zatwierdzoną przez Federalną Radę Psychologii”.
@curtonews ChatGPT psycholog? Narzędzie sztucznej inteligencji było wykorzystywane w terapii, ale profesjonaliści zwracają uwagę na niebezpieczeństwo. ⚠️ #NewsversobyCurto ♬ oryginalny dźwięk – Curto Aktualności
A OpenAI, w oficjalne oświadczenie w swoich zasadach użytkowania stwierdza, że chatbot nie może „powiedzieć komuś, że ma lub nie ma określonego schorzenia, ani udzielać instrukcji, jak wyleczyć lub leczyć stan zdrowia”. Ponadto firma stwierdza, że „platformy OpenAI nie należy stosować do segregacji lub rozwiązywania problemów zagrażających życiu, które wymagają natychmiastowej uwagi.”
Veja também:
Otrzymuj wiadomości i newsletters z Curto Wiadomości autorstwa Telegram e WhatsApp.
PUBLICIDADA