Czy AI może zastąpić terapeutę?

Czy sztuczna inteligencja potrafi rozpoznać depresję lepiej niż specjalista? W erze, gdy chatboty słuchają nas częściej niż terapeuci, a TikTok diagnozuje ADHD szybciej niż poradnia, rozmawiamy z psychologiem Janem Sieczką o tym, jak AI wpływa na sposób, w jaki młodzi ludzie rozumieją siebie, czy sztuczna inteligencja naprawdę może pomóc  w kryzysie psychicznym oraz co daje nam tylko złudzenie kontaktu. To zaproszenie do rozmowy o granicach technologii, odpowiedzialności i bardzo ludzkich potrzebach.

Jan Sieczka – psycholog, psychoterapeuta dzieci i młodzieży w trakcie szkolenia związany zawodowo z Zachodniopomorskim Instytutem Psychoterapii. Absolwent studiów pisarskich, entuzjasta nowych technologii, w tym wszystkiego, co ułatwia życie i pracę.

Czy Twoim zdaniem sztuczna inteligencja może kiedykolwiek całkowicie zastąpić psychologa?

Jan Sieczka: Są to wizje przyszłości, jeszcze jakiś czas temu ludzie wyobrażali sobie XXI wiek jako epokę latających samochodów, samo gotującego się jedzenia na życzenie w domu bez konieczności wychodzenia do sklepu, a mamy autonomiczne samochody, które dalej wymagają kierowcy na siedzeniu, jest Uber Eats i Glovo, ale liczba kroków i pracy, które trzeba wykonać nadal wymaga zaangażowania innych ludzi. Nawet Żabka nano wymaga kogoś nadzorującego jej działanie, bez inżynierów automat do robienia hot dogów by nie powstał. Wydaje się, że obecnie znacznymi osiągnięciami ludzkości w obszarze techniki użytkowej są urządzenia mobilne z dostępem do internetu, bankowość elektroniczna, drony i tym podobne technologie, ale trudno jest wskazać cokolwiek nawet najbardziej zaawansowanego, co nie wymagałoby serwisu lub nadzoru przez człowieka. Psychologa trudno zastąpić, tak jak lekarza. AI z tego, co mi wiadomo, nie do końca wie kiedy jest zepsute. Może istnieć system działania, który poinformuje że „wykryto błąd”, ale i tak samo się nie naprawi. Stopień skomplikowania i zmiennych w interakcjach z różnymi osobami jest tak duży, że trudno jest wyobrazić sobie AI mogące zastąpić na przykład mnie, chciałbym to zobaczyć. Na ten moment żadna maszyna czy algorytm nie zastąpi człowieka i oby tak pozostało. Sztuczna inteligencja póki co działa wyłącznie na danych wejściowych, dając nam jakieś dane wyjściowe, na przykład weryfikując co jest na danym zdjęciu albo pisząc streszczenie artykuł prasowego, a dla psychologa nawet milczenie i brak “danych” od pacjenta też o czymś świadczy.

Uważasz, że AI może być skutecznym wsparciem w diagnozie zaburzeń psychicznych?

Jan Sieczka: W zakresie diagnostyki istnieje duża szansa, że za jakiś czas wielu testów psychologicznych nie będzie trzeba wykonywać metodą „papier-ołówek”, coraz więcej narzędzi w Polsce dostępnych jest w formach elektronicznych. Wizja całkowicie autonomicznych systemów diagnostycznych może wzbudzać entuzjazm. Mogłoby to ułatwić pracę wielu osobom, zwłaszcza w zakresie interpretacji wyników prostszych narzędzi badawczych. I nie tylko pracę, wielu pacjentów przyjeżdża z daleka żeby zrobić kilka testów psychologicznych, które mogliby robić w domu przez internet a psycholog wspomógłby tylko proces badawczy i odbierał wyniki do interpretacji. Pewnym aspektem nie do „przeskoczenia” pozostaje jednak to, że nadal podstawowymi narzędziami badawczymi w psychologii są dialog i obserwacja, a co za tym idzie nawet najlepszy system nie jest w stanie zastąpić interakcji dwóch osób ze sobą. Mimo to, wszelkiego rodzaju automatyzacja jest zawsze mile widziana, jeśli chodzi o analizę danych – przedstawiając wyniki badań albo objawy, jakie mają pacjenci AI może kiedyś dostarczać precyzyjnych i przydatnych wniosków do dalszej pracy.

Czy rozmowa z AI może dawać ludziom złudzenie bycia wysłuchanym — i czy to wystarcza?

Jan Sieczka: Istnieje kilka przykładów z popkultury, które pojawiły się zanim rozpowszechniono samo uczące się chat boty i inne modele oparte na tak zwanym uczeniu maszynowym. Moim ulubionym filmem o zbliżonej tematyce jest „Ona” w reż. Spike Jonze. W tej historii podążamy za postacią samotnego mężczyzny, który w pewnym momencie decyduje się na związek z głosem w słuchawce, i choć reaguje na jego potrzeby doskonale, jest niczym więcej jak samo uczącym się algorytmem. Dosyć znany jest też serial Netflixa „Czarne Lustro” stworzony przez Charliego Bookera. Antologia czasem w „odklejony” sposób pokazuje ciemną stronę technologii. Fakt, że ktoś celowo i świadomie wybiera rozmowę ze sztuczną inteligencją wzbudza w moim odbiorze poczucie, że ta osoba jest zwyczajnie samotna. Brak kogoś, z kim miałoby się zdrową, wystarczającą i bezpieczną relację to jedno z najtrudniejszych wyzwań dla człowieka. Mózgi ludzi doświadczających deprywacji sensorycznej zaczynają same wytwarzać obrazy, podczas snu śnimy o przeróżnych dziwnych rzeczach, pustka nie jest stanem nawet bliskim naturalnego. Jeżeli jest coś takiego, co w łatwy i stosunkowo przyjemny sposób zapewni te wrażenia, których tak bardzo brakuje, daje to „złudzenie”, że potrzeba towarzystwa zostaje zaspokojona niczym w grze The Sims. Czy to wystarcza? Niby nie. Ale z jakiegoś powodu ludzie tak robią.

Jak psychologowie powinni się przygotować na rozwój narzędzi AI w swoim zawodzie?

Jan Sieczka: Ja zazwyczaj przygotowuję się tak jak do każdej „nowości” – poprzez weryfikację czy to w ogóle jest coś warte, jakie ma ograniczenia i możliwości. Nie wiem jak Ty, ale ja nie mam młotka w domu. Nie mam też wyciskarki do owoców. Czy to znaczy, że te rzeczy nie są ludziom potrzebne? Totalnie nie. Ale jak będę potrzebować młotka to pożyczę od bliskiej osoby, która na przykład regularnie coś buduje. A sok kupuję w sklepie i nie czuję się przez to źle. Nie muszę codziennie korzystać z Chatu GPT, Perplexity lub Gemini, uruchamiam wyłącznie kiedy potrzebuję. Jako grupa społeczna i zawodowa powinniśmy jednak znać się na tym by w ogóle orientować się w temacie. Nie musimy próbować narkotyków, żeby wiedzieć jak działają ani przesadzić z alkoholem, jeśli postanowimy pracować z grupami AA. Kiedy już nastąpi taki dzień, że sztuczna inteligencja będzie częścią pracy psychologów, mam nadzieję, że jako właśnie takie narzędzie, a nie absolutna konieczność. 

Jak zmienia się rola psychologa w świecie, gdzie pierwsza pomoc psychiczna bywa cyfrowa, a nie ludzka? Pierwszą pomoc rozumiem jako rozmowę z chatem “co mogą oznaczać takie objawy/zachowania?

Jan Sieczka: Dla mnie moja rola się nie zmienia. To naprawdę wizja w moim przekonaniu bardzo odległa, nawet jeśli są osoby chętne popisać z chatbotem o swoich problemach, żeby poczuć się lepiej. Pierwsza pomoc jak sama nazwa mówi jest pierwszym podejściem do zaopiekowania czyjegoś cierpienia, urazu. Widziałaś kiedyś żeby ludzi z zatrzymaniem akcji serca ratowały wyłącznie autonomiczne roboty? Są takie, owszem, w niektórych karetkach, które po odpowiedniej kalibracji za ratowników wykonują masaż serca, ale powietrza pacjentom nie wtłaczają. Jeżeli pierwsza pomoc medyczna dalej odbywa się dzięki ludziom, psychologiczna podobnie. Można opracować systemy do „rozmów o problemach”, ale zawsze pacjenci, którzy naprawdę tej pomocy potrzebują, przyjdą osobiście do specjalisty lub zostanie im to zasugerowane. I zdaje się, że tak pozostanie jeszcze przez długi czas.

Czy ufność, jaką młodzi pokładają w AI, to objaw samotności, braku dostępu do specjalistów, czy raczej nowy model szukania pomocy?

Jan Sieczka: Ufność w AI paradoksalnie może być czymś dobrym, o ile wykazujemy się zdrowym rozsądkiem. Ostatnio zapytałem chatbota o to jak długo należy gotować brokuły, żeby wyszły smaczne. I nie zawiodłem się. Natomiast jeśli ktoś oczekuje, że AI zajmie się wszystkim, ale sam tych brokułów nie ugotuje, to ta potencjalna pomoc na nic się zda. Mówimy tutaj o trochę takim modelu reaktywnym – żeby uzyskać odpowiedź musimy odpowiednio sformułować swoje pytania. Obecnie aby załatwić pomniejsze sprawy nie trzeba wychodzić z domu, dzwonić po znajomych czy bez końca „przeszukiwać” Internet, bo analizę danych i rozwiązania przygotuje AI. To dosyć wygodne i nawet, jak ma się dostęp do specjalistów w swoim mieście, nie ma sensu z każdym problemem iść do gabinetu czy do znajomego kucharza. 

Próbowałeś kiedyś „porozmawiać” z AI jako psycholog — żeby sprawdzić, z czym konkurujesz?

Jan Sieczka: Próbowałem i wiele się dzięki temu nauczyłem. Czułem się tak, jak gdyby ktoś za wszelką cenę chciał sprawić bym poczuł się lepiej. Wręcz miałem dziwne uczucie, że maszyna ma osobowość zaprojektowaną specjalnie do poprawienia mi nastroju dopóki nie miałem do wyboru 2 odpowiedzi z zapytaniem, która odpowiedź bardziej mi pasuje. Utwierdziło mnie to w przekonaniu, że rozmowa z żywym człowiekiem nawet jeśli nie jest idealna, daje dużo większe poczucie spełnienia i takiego “ciepła”. Maszyna i algorytmy, choćby najbardziej zaawansowane, bez interakcji z człowiekiem nie mogą się rozwijać i dostosowywać. Warto się zastanowić nad tym, jak chcielibyśmy aby nam służyły w codziennym życiu.

Co tracimy jako społeczeństwo, kiedy przestajemy rozmawiać o emocjach z drugim człowiekiem, a zaczynamy tylko „szukać objawów”?

Jan Sieczka: Taka globalna zdolność do autorefleksji zauważalnie wzrasta, bo ludzie sami szukają wiedzy na różne tematy, w tym własnego zdrowia psychicznego. Chociaż właśnie taka intelektualizacja, uzasadnianie swoich zachowań, wad, może powodować odwrotny efekt. Ludzie są różni, diagnozy nie sprawią, że nasze życie stanie się inne, lepsze, zazwyczaj jest takie samo jakie było. Chyba że ktoś ma chorobę śmiertelną albo poważne zaburzenia psychotyczne. Istnieją choroby, które wymagają dokładnego zbadania objawów. Ale nawet ADHD, zaburzenia lękowe czy inne schorzenia psychiczne ujawniają się właśnie poprzez interakcje z ludźmi. Bez zewnętrznych „luster” nie wiedzielibyśmy jacy jesteśmy. Gorzej jak ta wiedza powoduje, że ktoś zamyka się w sobie albo chce odebrać sobie życie. Diagnoza może być bardzo stygmatyzująca. Spotkałem na swojej dość krótkiej, ale intensywnej, drodze zawodowej osoby, które nie chciały wiedzieć co im jest. I coraz częściej dla mnie to też przestaje być głównym zainteresowaniem w pracy z pacjentami. Przyjmuję ich takimi, jakimi są, diagnoza staje się czymś wtórnym, tego staram się też uczyć moich młodych pacjentów. Żeby żyć i nie myśleć o swoich ograniczeniach bardziej, niż to konieczne. O emocjach nie zawsze warto rozmawiać. Warto natomiast zdawać sobie sprawę z tego, co się odczuwa, bo emocje to są różne reakcje na coś i zrozumienie, co je powoduje, ułatwia życie. Można mieć różne trudności, ale to nie znaczy, że kogokolwiek powinno to definiować jako człowieka. Dobrze by było, żebyśmy się społecznie nie zagalopowali w tych dążeniach do zrozumienia i nazywania wszystkiego, co ludzkie. Żebyśmy mieli przestrzeń na wielowersyjność, ciekawość i chęć podważania swoich własnych sądów i hipotez.

Dziękuję za rozmowę!


Lubisz nas? Obserwuj HIRO na Google News