General Practitioner
eISSN: 2450-4459
ISSN: 2450-3517
Lekarz POZ
Current issue Archive Manuscripts accepted About the journal Supplements Abstracting and indexing Subscription Contact Instructions for authors Publication charge
Editorial System
Submit your Manuscript
6/2025
vol. 11
 
Share:
Share:
abstract:

Sztuczna inteligencja w gabinecie lekarza POZ – ewolucja, a nie rewolucja. Analiza szans i zagrożeń

Alan Żak
1

  1. Centrum Medyczne AD-MED we Wrocławiu
Online publish date: 2026/02/06
View full text Get citation
 

Od science fiction do EBM


Medycyna oparta na faktach (evidence-based medicine – EBM) uczy nas sceptycyzmu. Kiedy słyszymy o „cudownych lekach”, pytamy o badania z randomizacją. Podobnie powinniśmy podejść do szumu informacyjnego wokół sztucznej inteligencji (artificial intelligence – AI). Nie jest to magiczna pigułka, która rozwiąże wszystkie problemy systemowe ochrony zdrowia, ale nie jest to też tylko chwilowa moda.
Jako lekarze POZ, tonący w biurokracji i poddani presji czasu, stoimy na pierwszej linii frontu. To w naszych gabinetach ważą się losy wczesnej diagnostyki i to my spędzamy mnóstwo czasu w systemach gabinetowych (electronic health record – EHR). Celem tego artykułu jest chłodna, merytoryczna analiza, czym tak naprawdę jest AI, jak bezpiecznie wdrożyć ją do zbierania wywiadu i jakie zagrożenia się z nią wiążą.

Czym właściwie jest AI – krótki kurs dla klinicysty


Nie zrozumiemy zagrożeń, jeśli nie zrozumiemy mechanizmu. W kontekście obecnej rewolucji AI mówimy głównie o dwóch technologiach, które musimy w gabinecie rozróżniać: dużych modelach językowych oraz systemach probabilistycznych i wnioskowania.
Duże modele językowe (large language models – LLM) to technologia stojąca za popularnym ChatGPT. Wyobraźmy sobie rezydenta, który przeczytał wszystkie książki medyczne świata, ale... uczył się na pamięć, nie rozumiejąc związków przyczynowo-skutkowych [1].
W uproszczeniu LLM to zaawansowana statystyka – algorytm przewidujący kolejne słowo w zdaniu na podstawie miliardów przeczytanych tekstów. Dzięki temu potrafi pisać idealne epikryzy, streszczać dokumentację i tłumaczyć żargon medyczny na język zrozumiały dla pacjenta. Zagrożeniem są tzw. halucynacje – jeśli model nie zna odpowiedzi, może ją wymyślić. Będzie przy tym brzmiał bardzo pewnie, poda np. zmyślone nazwy badań klinicznych czy dawkowanie leków.
Termin „halucynacja” kojarzy się z psychiatrią, ale w informatyce oznacza pewną specyficzną cechę LLM. Aby zrozumieć, dlaczego ChatGPT może wymyślić nieistniejącą dawkę leku, musimy zajrzeć pod maskę silnika. LLM działa podobnie jak pacjent z zespołem Korsakowa, który konfabuluje. Pacjent nie kłamie celowo, tylko wypełnia luki w pamięci najbardziej prawdopodobną treścią, aby zachować spójność narracji. To właśnie robi LLM. Nie posiada on „bazy faktów” (jak encyklopedia), ale „bazę prawdopodobieństw”.

Statystyka, a nie logika


W uproszczeniu – LLM to zaawansowana autokorekta w...


View full text...
Quick links
© 2026 Termedia Sp. z o.o.
Developed by Termedia.