Psychiatria Spersonalizowana
ISSN: 2720-7048
Psychiatria Spersonalizowana / Personalized Psychiatry
Bieżący numer Archiwum Artykuły zaakceptowane O czasopiśmie Rada naukowa Bazy indeksacyjne Prenumerata Kontakt Zasady publikacji prac Standardy etyczne i procedury
1/2025
vol. 4
 
Poleć ten artykuł:
Udostępnij:
Artykuł przeglądowy

Sztuczna inteligencja, ChatGPT i ich zastosowanie w praktyce. Co psychiatra powinien wiedzieć, aby nie pobłądzić?

Gniewko Więckiewicz
1

  1. Katedra Psychiatrii, Wydział Nauk Medycznych w Zabrzu, Śląski Uniwersytet Medyczny w Katowicach Department of Psychiatry, Faculty of Medical Sciences in Zabrze, Medical University of Silesia in Katowice
Personalized Psychiatry 2025; 4: e10–e14
Data publikacji online: 2025/04/04
Plik artykułu:
- Sztuczna.pdf  [0.23 MB]
Pobierz cytowanie
 
Metryki PlumX:
 

Wstęp

W ostatnich latach sztuczna inteligencja (SI) i modele językowe oparte na głębokim uczeniu zaczęły odgrywać coraz większą rolę w różnych dziedzinach medycyny, w tym w psychiatrii. Zastosowanie tych technologii obejmuje zarówno diagnostykę, monitorowanie stanu pacjentów, jak i wspomaganie decyzji klinicznych. W obliczu rosnącej ilości danych medycznych oraz potrzeby personalizowanej opieki zdrowotnej modele SI oferują obiecujące rozwiązania, mogące poprawić skuteczność leczenia oraz dostępność usług psychiatrycznych. Wraz z ich rozwojem pojawiają się jednak również pytania dotyczące wiarygodności, interpretowalności oraz etyki ich stosowania w kontekście zdrowia psychicznego.
Sztuczna inteligencja to interdyscyplinarna dziedzina badań, której celem jest tworzenie systemów zdolnych do samodzielnego przetwarzania informacji i podejmowania decyzji. W psychiatrii może ona obejmować narzędzia do analizy danych klinicznych, przetwarzania języka naturalnego (natural language processing – NLP), modelowania zachowań pacjentów oraz wspierania decyzji terapeutycznych.
Jednym z kluczowych obszarów SI są modele językowe, czyli algorytmy zdolne do analizy, rozumienia i generowania tekstu w języku naturalnym. Są one oparte na głębokich sieciach neuronowych i wykorzystują ogromne zbiory danych do nauki wzorców językowych. Modele takie jak GPT (generative pre-trained transformer) czy BERT (bidirectional encoder representations from transformers) pozwalają na zaawansowane przetwarzanie tekstów medycznych, interpretację dokumentacji pacjentów, a nawet prowadzenie podstawowych interakcji z pacjentami za pośrednictwem chatbotów [1].
Celem niniejszego przeglądu jest przybliżenie psychiatrom zagadnień dotyczących wykorzystania modeli językowych w ich dziedzinie. Omówione zostaną potencjalne zastosowania, zalety, ograniczenia oraz wyzwania etyczne związane z integracją SI w praktyce klinicznej. Przedstawione zostaną zarówno możliwości, jak i ograniczenia tych narzędzi, aby umożliwić psychiatrom świadome i krytyczne podejście do ich wykorzystania w codziennej praktyce.

Czym jest GPT?

Generative pre-trained transformer – GPT – to zaawansowany model SI, który został zaprojektowany do przetwarzania języka naturalnego. Jego główną cechą jest zdolność do generowania tekstu, przewidywania kolejnych słów na podstawie kontekstu i prowadzenia zaawansowanych interakcji językowych. Modele GPT wyróżniają się możliwością automatycznego przetwarzania ogromnych ilości danych tekstowych, co czyni je użytecznymi w takich dziedzinach, jak analiza danych, automatyczne podsumowywanie oraz generowanie języka naturalnego w różnych kontekstach [2]. Jednym z głównych zastosowań GPT jest wspomaganie badań naukowych poprzez automatyzację analizy tekstu, co obejmuje np. generowanie danych, analizę treści oraz podsumowywanie artykułów [3]. GPT ma pewne ograniczenia – brak pełnego zrozumienia kontekstu, możliwość generowania błędnych lub nieetycznych treści oraz trudności w interpretacji decyzji podejmowanych przez model [4]. W psychiatrii modele językowe takie jak GPT mogą odgrywać kluczową rolę w analizie dokumentacji medycznej, generowaniu raportów diagnostycznych oraz interakcji z pacjentami, choć ich stosowanie wymaga nadzoru i interpretacji przez specjalistów [5].

Czy ChatGPT i modele GPT to to samo?

Często mówiąc o SI, polscy psychiatrzy mają na myśli ChatGPT, który jest modelem GPT, a same modele mogą być ukierunkowane na różne działania. GPT to klasa modeli SI zaprojektowanych do przetwarzania i generowania języka naturalnego. Modele te bazują na architekturze Transformer, która wykorzystuje mechanizm self-attention do analizy zależności między słowami w tekście. Dzięki temu GPT potrafi rozumieć kontekst oraz generować spójne i logiczne odpowiedzi, opierając się na dostarczonych danych – będzie dawać odpowiedzi na podstawie tego, co otrzymał w trakcie budowy. Modele GPT składają się z wielu warstw neuronowych, które zostały wstępnie wytrenowane na ogromnych zbiorach tekstowych. Następnie są one dostrajane do konkretnych zadań, takich jak generowanie treści, podsumowywanie dokumentów, analiza sentymentu czy klasyfikacja tekstów [6, 7]. Modele te mają jednak ograniczenia, np. brak pełnego rozumienia kontekstu (model nie rozumie semantycznie generowanych treści, co może prowadzić do nieprawidłowych interpretacji), możliwość generowania błędnych lub dezinformujących treści (GPT może produkować teksty zawierające błędy faktograficzne lub niepoprawne logicznie), wysokie zapotrzebowanie na moc obliczeniową (trenowanie i wdrażanie modeli wymaga ogromnych zasobów sprzętowych, co ogranicza ich powszechne użycie). Ich szerokie stosowanie wymaga ostrożności, szczególnie w dziedzinach, gdzie precyzja informacji jest kluczowa, tym bardziej że dobrze zaprojektowane badania kliniczne dotyczące bezpieczeństwa takiego rozwiązania są ograniczone, a w Polsce nie istnieją, co zostanie jeszcze omówione poniżej.

Nowoczesne wykorzystanie GPT – TherapistGPT

Jednym z najciekawszych rozwiązań ostatnich lat dla psychiatrii jest TherapistGPT – zaawansowany model językowy zaprojektowany z myślą o zastosowaniach w psychoterapii i wsparciu zdrowia psychicznego. Jego główną funkcją jest analiza języka naturalnego pacjentów oraz generowanie odpowiedzi zgodnych z założeniami terapii poznawczo-behawioralnej (cognitive behavioral therapy – CBT) i innych podejść psychoterapeutycznych. Dzięki możliwości przetwarzania dużych ilości danych tekstowych TherapistGPT może dostarczać spersonalizowane rekomendacje terapeutyczne, prowadzić rozmowy wspierające, a także monitorować zmiany w nastroju użytkowników na podstawie analizy ich wypowiedzi. Model ten znajduje zastosowanie w wirtualnych terapiach, chatbotach zdrowia psychicznego, systemach wspomagających terapeutów oraz aplikacjach mobilnych do monitorowania samopoczucia.
Jedną z kluczowych możliwości TherapistGPT jest automatyczne rozpoznawanie wzorców emocjonalnych i językowych, co pozwala na wykrywanie oznak depresji, lęku czy myśli samobójczych. Model może również pełnić funkcję cyfrowego terapeuty, dostarczając techniki redukcji stresu, strategie radzenia sobie z trudnościami i psychoedukacji. Dzięki algorytmom uczenia maszynowego TherapistGPT może adaptować się do użytkownika, sugerując treści dostosowane do jego indywidualnych potrzeb. Co więcej, może być wykorzystywany przez profesjonalistów w psychiatrii i psychologii jako narzędzie wspierające ocenę pacjentów oraz ułatwiające prowadzenie dokumentacji medycznej poprzez automatyczne podsumowania sesji terapeutycznych.
Pomimo obiecujących zastosowań TherapistGPT ma istotne ograniczenia, które należy uwzględnić przed jego szerokim wdrożeniem w praktyce klinicznej. Przede wszystkim model ten nie jest w stanie zastąpić pełnoprawnej diagnozy psychiatrycznej ani terapeutycznej, ponieważ jego mechanizmy bazują na analizie tekstu, a nie na kompleksowej ocenie pacjenta obejmującej wywiad kliniczny, testy psychometryczne czy obserwację zachowań. Dodatkowo brak badań klinicznych oceniających skuteczność i bezpieczeństwo modelu w rzeczywistych warunkach oznacza, że jego zalecenia mogą nie być w pełni zgodne z aktualnymi standardami opieki psychiatrycznej. Kolejnym wyzwaniem jest brak pełnej interpretowalności decyzji modelu, co może prowadzić do trudności w monitorowaniu jakości generowanych odpowiedzi oraz ryzyka wystąpienia błędów diagnostycznych. TherapistGPT może również wykazywać uprzedzenia algorytmiczne, szczególnie jeśli został wytrenowany na danych zawierających stereotypy dotyczące zdrowia psychicznego, co może skutkować nierównym traktowaniem pacjentów z różnych grup demograficznych. Nie bez znaczenia są także względy etyczne i prawne, zwłaszcza ochrona prywatności użytkowników – wykorzystanie SI w terapii wymaga rygorystycznych zabezpieczeń w zakresie przechowywania i przetwarzania wrażliwych danych pacjentów.
TherapistGPT jest obiecującym narzędziem wspierającym zdrowie psychiczne, oferującym szeroki zakres funkcjonalności, od analizy emocji po generowanie treści terapeutycznych. Jego stosowanie wymaga starannych badań klinicznych, ścisłego nadzoru ze strony specjalistów oraz regulacji prawnych, aby zagwarantować skuteczność, bezpieczeństwo i zgodność z etyką medyczną [8].

Brak badań klinicznych nad modelami GPT jako ograniczenie wykorzystania SI w psychiatrii

Współczesna psychiatria coraz częściej korzysta z narzędzi SI w celu wspomagania codziennej pracy, jednak brak dobrze skonstruowanych badań klinicznych nad skutecznością i bezpieczeństwem tych systemów stanowi istotne wyzwanie. Modele GPT bazują na statystycznej analizie języka, co oznacza, że ich rekomendacje mogą być podatne na błędy, uprzedzenia i brak kontekstu klinicznego. W praktyce psychiatrycznej diagnoza wymaga kompleksowej oceny pacjenta, uwzględniającej nie tylko językowe aspekty jego wypowiedzi, lecz także dane behawioralne, historię choroby oraz wyniki badań psychometrycznych i neuroobrazowania. Brak badań klinicznych oznacza, że nie można jednoznacznie stwierdzić, czy modele GPT są skuteczne jako narzędzie terapeutyczne, czy raczej mogą prowadzić do błędnych diagnoz i interwencji. Ponadto stosowanie modeli SI bez regulacji prawnych i ustalonych standardów niesie ryzyko nadużyć, dezinformacji oraz rezygnacji pacjentów z tradycyjnych metod leczenia. Bez badań klinicznych nie można ustalić jednolitych wytycznych dotyczących stosowania modeli GPT w psychiatrii. W przeciwieństwie do leków i procedur medycznych, które muszą przejść rygorystyczne testy przed dopuszczeniem do użytku, modele językowe nie mają zatwierdzenia Food and Drug Administration (FDA) ani European Medicines Agency (EMA) jako narzędzia diagnostyczne lub terapeutyczne, nie są testowane pod kątem skuteczności w różnych grupach pacjentów, co może prowadzić do niedostosowania do potrzeb osób z różnymi schorzeniami (np. schizofrenia vs depresja). Nie są też objęte regulacjami dotyczącymi odpowiedzialności prawnej – jeśli model GPT popełni błąd, nie jest jasne, kto ponosi odpowiedzialność (programista? firma? lekarz?). W związku z popularyzacją tego pojęcia, potrzeba przeprowadzenia badań wydaje się paląca. Kolejnym istotnym zagadnieniem jest szybka, nierzadko nieetyczna, komercjalizacja rozwiązań SI.
Obecnie nie brakuje aplikacji wspomagających terapię i leczenie, ale duża ich część powstała bez potwierdzenia w badaniach klinicznych. Z punktu widzenia ochrony interesów podatników i płatników składek badane powinny być głównie rozwiązania open source opracowywane przez pracowników rządowych, ponieważ ochrona danych wrażliwych jest kluczowa, zwłaszcza w tak delikatnej i podatnej na stygmatyzację społeczną dziedzinie, jaką jest psychiatria. Oprogramowanie open source odnosi się do programów komputerowych, których kod źródłowy jest publicznie dostępny i może być swobodnie używany, modyfikowany oraz udostępniany przez użytkowników. W przeciwieństwie do komercyjnych rozwiązań, które wymagają zakupu licencji, open source oferuje organizacjom znaczące oszczędności kosztów zarówno w związku z eliminacją opłat licencyjnych, jak i redukcją kosztów sprzętu oraz długoterminowej konserwacji systemów. Stosowanie oprogramowania open source w administracji publicznej pozwala na znaczne zmniejszenie wydatków operacyjnych i technologicznych, eliminując konieczność ponoszenia kosztów związanych z licencjonowaniem oraz ograniczając zależność od komercyjnych dostawców oprogramowania [9]. Dodatkowo zastosowanie otwartego kodu źródłowego w infrastrukturze informatycznej może prowadzić do wielomilionowych oszczędności w perspektywie długoterminowej, co czyni go atrakcyjną propozycją dla przedsiębiorstw i instytucji publicznych [10]. Ponadto oprogramowanie open source sprzyja innowacyjności i elastyczności, umożliwiając dostosowanie systemów do indywidualnych potrzeb organizacji bez konieczności inwestowania w kosztowne aktualizacje komercyjnych aplikacji. TherapistGPT jest rozwiązaniem typu open source, a jego kod jest dostępny dla każdego użytkownika internetu [8].

Podsumowanie

Modele językowe niosą nowe zagrożenia i nowe obawy. Z pewnością powinny być w dalszym ciągu badane i rozwijane, ale ich komercjalizacja i wprowadzanie do codziennego użycia obecnie są zbyt szybkie. Z powodu braku jasnych ram prawnych i dobrze zaprojektowanych badań klinicznych ich wykorzystywanie przez lekarzy w codziennej praktyce jest ograniczone.

Oświadczenia/Disclosures

Badanie nie otrzymało zewnętrznego finansowania./Financial support and sponsorship: none.
Zgoda komisji etycznej: nie dotyczy./Institutional review board statement: none.
Autorzy deklarują brak konfliktu interesów./Con­flicts of interest: none.
Piśmiennictwo
1. Egli A. ChatGPT, GPT-4, and other large language models: the next revolution for clinical microbiology? Clin Infect Dis 2023; 77: 1322-1328.
2. Zhang C, Lu J, Zhao Y. Generative pre-trained transformers (GPT)-based automated data mining for building energy management: Advantages, limitations and the future. Energy and Built Environment. 2024. https://www.sciencedirect.com/science/article/pii/S2666123323000521.
3. Sufi F. Generative pre-trained transformer (GPT) in research: a systematic review on data augmentation. Information 2024; 15: 99.
4. Kamnis S. Generative pre-trained transformers (GPT) for surface engineering. Surf Coat Tech 2023; 466. DOI: 1016/j.surfcoat.2023.129680.
5. Atallah SB, Banda NR, Banda A, Roeck NA. How large language models including generative pre-trained transformer (GPT) 3 and 4 will impact medicine and surgery. Tech Coloproctol 2023; 27: 609-614.
6. Crandall AS, Sprint G, Fischer B. Generative pre-trained transformer (GPT) models as a code review feedback tool in computer science programs. J Comput Sci Coll 2023; 39: 38-47.
7. Lee P, Bubeck S, Petro J. Benefits, limits, and risks of GPT-4 as an AI chatbot for medicine. N Engl J Med 2023; 388: 1233-1239.
8. https://github.com/nmichaud0/TherapistGPT. Dostęp: 7.03.2025.
9. Zuliani P, Kovács GL, Drozdik S. Open source software for the public administration. Proceedings of the 6th International Conference on Electronic Government, 2004. https://www.researchgate.net/publication/228770161.
10. Fitzgerald B, Kenny T. Open source software in the trenches: Lessons from a large-scale OSS implementation. Proceedings of the 24th International Conference on Information Systems (ICIS), 2003. https://aisel.aisnet.org/icis2003/27.
© 2025 Termedia Sp. z o.o.
Developed by Bentus.