123RF

Inflacja pojęcia sztucznej inteligencji a wyroby medyczne

Udostępnij:
Rynek wyrobów medycznych czeka kolejna rewolucja – związana z komercjalizacją AI. Niestety, zapowiadane zmiany niekoniecznie będą pozytywne. Zanim one nastąpią, warto przyjrzeć się, co kryje się za definicją sztucznej inteligencji i jak będzie ona wyglądać w aktach prawnych, które niebawem uregulują branże.
Artykuł Dariusza Tarabasza z Czyżewscy Kancelaria Adwokacka:
Sztuczna Inteligencja powoli staje się swego rodzaju marką samą w sobie. Kolejne doniesienia o przekroczeniu coraz to nowszych barier przez AI jedynie podnoszą jej wartość. Branża ochrony zdrowia nie jest tu wyjątkiem. Większość z nas chce korzystać z osiągnięć najnowszej nauki. Tym bardziej jeśli chodzi właśnie o zdrowie.

Co jest, a co nie jest sztuczną inteligencją?
W końcu na zdrowiu oszczędzać nie warto. Można się spodziewać, że rynek wyrobów medycznych czeka kolejna rewolucja, która może przynieść nie tylko pozytywne zmiany. Potencjał związany z komercjalizacją AI jest ogromny. Warto jednak sięgnąć do podstaw i przyjrzeć się temu, co kryje się za definicją „sztuczna inteligencja” i jak będzie ona wyglądać w aktach prawnych, które niebawem rynek ten uregulują. Powód jest prosty – nie wszystko złoto, co się świeci. AI rozwiązuje wiele problemów, ale tworzy też bardzo dużo nowych. Jednym z nich jest, powodowana gigantyczną popularnością, coraz większa inflacja tego pojęcia.

W pierwotnej wersji projekt rozporządzenia UE, który niebawem ma stworzyć ramy prawne do wykorzystania AI , odsyłał do załącznika, w którym wymienione były technologie uważane za sztuczną inteligencję. Podejście to miało kilka zalet, z czego najważniejszą było to, że pozwalało uciec od problemu zdefiniowania tego, czym właściwie jest sztuczna inteligencja. Zamiast tego ograniczono się do kazuistycznego wymienienia konkretnych technologii, dającego jednoznaczność w interpretacji. Podejście to miało jednak jedną poważną wadę. Akty prawne oparte na tej technice legislacyjnej bardzo „brzydko się starzeją”. Wystarczy pojawienie się nowego rozwiązania jeszcze bardziej zaawansowanego, a już prawo pozostaje w tyle i okazuje się, że cała ogromna praca włożona w szczegółowe rozwiązania nie jest nic warta. Jedna nowa i nieistniejąca wcześniej ewolucyjna zmiana w technologii powoduje, że definicja staje się nieaktualna, a wraz z nią cały akt prawny chwieje się między aktualnością a anachronicznością. Oczywiście można załącznik uzupełnić, wymaga to jednak czasu i przejścia od nowa całej procedury legislacyjnej. Szybkość rozwoju AI uzasadnia podejrzenie, że już niedługo Parlament Europejski w dużej mierze nie nadążyłby za uzupełnianiem jednego załącznika. Siłą rzeczy prawo zawsze w tym przypadku będzie krok z tyłu za rynkiem.

W definicji liczy się precyzja
Jak istotne jest to w praktyce, pokazuje problem tzw. dopalaczy. Wystarczyła drobna zmiana w strukturze chemicznej, aby substancja nie mieściła się w zamkniętym katalogu substancji zabronionych z załącznika do ustawy o zwalczaniu narkomanii. Stwarzało to olbrzymią przestrzeń do nadużyć. Z drugiej strony, jeżeli coś jest zabronione, to wymaga konkretnej definicji. Problem był tak duży, że konieczna stała się zmiana podejścia na poziomie samej ustawy.

Z tych przyczyn, aby nie wpaść w podobną pułapkę, zdecydowano się na zmianę konstrukcji rozporządzenia UE i odejście definicji w formie od załącznika. Nowa definicja wprowadzona po pierwszym czytaniu w Parlamencie Europejskim jest już dużo bardziej ogólna, uniwersalna. Nawiązuje do definicji wypracowanej przez OECD. Na tym jednak jej zalety się kończą. Bo ogólna i uniwersalna też nie znaczy dobra. Jak powiedział Albert Einstein: „Wszystko powinno zostać uproszczone tak bardzo, jak to tylko możliwe, ale nie bardziej”.

Po zmianie wprowadzono definicję „system sztucznej inteligencji” oznacza system maszynowy, który został zaprojektowany do działania z różnym poziomem autonomii i który może – do wyraźnych lub dorozumianych celów – generować wyniki, takie jak przewidywania, zalecenia lub decyzje wpływające na środowiska fizyczne lub wirtualne. Brzmi całkiem nieźle i profesjonalnie. Jeśli jednak przyjrzeć się bliżej, to można zadać pytanie, co oznacza „z różnym poziomem autonomii”. Nie wyjaśnia to, gdzie jest granica poziomu autonomii algorytmu. Podobnie niewiele wnosi stwierdzenie – do wyraźnych lub dorozumianych celów. W zasadzie wynika z tego, że możliwy jest każdy cel. Konkretnych ram zatem w tym niewiele.

Możliwe nadużycia
Definicja jest ogólna (nawet bardzo ogólna) – zachęca więc do poszukiwań jej niezamierzonych konsekwencji. Tytułem przykładu wyniki, jakie ma generować system sztucznej inteligencji, to przewidywania, zalecenia lub decyzje. Pojęcie: „przewidywania” to efekt tłumaczenia angielskiej wersji rozporządzenia, która w tym miejscu posługuje się słowem „prediction”. Dosłowne polskie tłumaczenie „prediction” to „predykcja” i nie chodzi tu o proste wróżenie, ale o sposób wnioskowania stosowany w statystyce. W oryginalnej wersji projekt nawiązuje zatem do pewnego sposobu myślenia. Ma to sens, bo modele sztucznej inteligencji są silnie związane ze statystyką i to ona napędza modele AI i ich rozwój. Same wyniki modeli to również bardzo często lista prawdopodobieństw opisujących przyszłość. W logice predykcja jest nierozerwanie związana z wnioskowaniem na temat tego, co nastąpi. Wychodząc z tego punktu, brakuje tutaj innego ważnego sposobu rozumowania, to jest dedukcji. Tymczasem większość wyrobów medycznych stosowanych w diagnostyce opiera się właśnie na dedukcji, a nie predykcji. Dedukcja, nieco upraszczając, jest przeciwieństwem predykcji. Dedukując na podstawie dowodów, śladów stwierdzamy, że coś się wydarzyło lub istnieje taki, a nie inny stan. Inaczej rzecz ujmując – nie przewidujemy, ale dedukujemy.

Z reguły chodzi o interpretację wyników badań i stwierdzenie, że jakaś jednostka chorobowa np. nowotwór istnieje lub jej nie ma. Zwykle nie przewidujemy, czy wystąpi (choć też można sobie to wyobrazić). Jeżeli już porównywać to do różnych sposobów myślenia, to nie ma powodów, dla których uwzględniać mamy jedynie predykcje (w polskim tłumaczeniu, jako przewidywania), a pomijać dedukcję. Tak więc ścisłe stosowanie definicji może powodować, że dość duża grupa zastosowań AI w ogóle wypadnie spod regulacji nowego rozporządzenia UE.

Stosowanie takiej definicji może jednak powodować więcej problemów. Nie dostrzega ona, że inteligencja w przypadku algorytmów też może być stopniowalna. Wyobraźmy sobie prostą, a nawet bardzo prymitywną funkcję, w której będą dwie zależności, tj. wiek i płeć. Na podstawie wieku algorytm będzie określał płeć człowieka. Uważny czytelnik zauważy, że te dwie wartości nie mają ze sobą nic wspólnego i na podstawie wieku nie można przewidzieć płci. Taki algorytm w rzeczywistości nie będzie działał poprawnie. To jednak już kwestia oceny zgodności. To na tym etapie tego rodzaju nieścisłości powinny zostać wyjaśnione i wychwycone. Na razie pozostańmy na gruncie samej definicji.

Algorytm opisany powyżej może zostać tak stworzony, aby działał autonomicznie, podejmował decyzje – np. przepisywał konkretne dawki leków właściwe według wieku. Może więc mieć wpływ na środowisko fizyczne (i to bardzo istotny). Może kreować przewidywania, (choć właściwie to raczej w tym wypadku dedukuje). Cele mogą być tutaj wyraźne lub dorozumiane, w zasadzie każde. Okazuje się zatem, że definicja jest bardzo pojemna i nawet prymitywne narzędzie (i to wadliwe) definicję sztucznej inteligencji spełnia.

W efekcie, jeżeli już przedsiębiorca produkujący wyroby medyczne (nawet oparte na tak prymitywnych założeniach) będzie musiał ponieść koszty związane ze stosowaniem nowego prawa, to można się spodziewać, że chętnie oznaczy swój wyrób jako wykorzystujący sztuczną inteligencję. W końcu czemu miałby tego nie robić, skoro spełnia definicję? Co prawda w przypadku wyrobów medycznych wprowadzanie w błąd jest zabronione, ale tutaj przecież o żadnym błędzie mowy być nie może, bo definicja legalna jest tak pojemna, że obejmuje również tego rodzaju rozwiązania. Trudno jednak spodziewać się, że konsument znajdzie tu różnicę i będzie zastanawiał się nad sposobem działania. W rzeczywistości zależności będą dużo bardziej złożone i skomplikowane niż w powyższym przykładzie.

Niewłaściwe działanie, tj. brak związku między dwoma parametrami z przykładu – wiekiem i płcią – powinien zostać wykryty podczas oceny zgodności. Nie jest to jednak oczywiste. Na przykład w Polsce kobiety żyją zdecydowanie dłużej niż mężczyźni, co ma wiele przyczyn. Co do powodów takiego stanu rzeczy nie ma zgody. Nie jest to jednak istotne. Dla pewnego przedziału wieku, np. powyżej 90 lat, nasza przykładowa funkcja będzie miała dość spory procent wskazań prawidłowych. Algorytm po pewnym czasie wywnioskuje, że powyżej pewnej granicy wieku mamy do czynienia najpewniej z kobietą, bo mężczyźni – mówiąc brutalnie – niezbyt często dożywają do tak sędziwego wieku jak kobiety. Według danych Głównego Urzędu Statystycznego wśród osób co najmniej 80-letnich już 70 proc. to kobiety i na 100 mężczyzn przypada ich 228.

Dlaczego pojęcie AI ulega inflacji?
Zważywszy na to, że nikt nie oczekuje stuprocentowej trafności (jest to ideał trudny do osiągnięcia nawet dla algorytmu), to jest tutaj pewne pole do swobody. Można sobie wyobrazić, że taki algorytm zostałby odpowiednio oznakowany. W instrukcji używania mogłoby zostać wskazane, że ma zastosowanie do pewnego przedziału wieku, np. powyżej 95 lat.

Może wypracowanie takiego rozwiązania nie byłoby szczytem myśli technicznej, ale definicja legalna byłaby spełniona. Ocena zgodności dla pewnego przedziału też mogłaby wykazać działanie z reguły prawidłowe. Można założyć też, że znaleźliby się konsumenci, którzy widząc oznaczenie „oparte na sztucznej inteligencji”, chcieliby, aby to wielkie osiągnięcie ludzkości służyło także im. Ogromny wspólny rynek Unii Europejskiej oczekuje na innowacje, a wraz z nim portfele konsumentów, którzy zamiast „wiedzy tajemnej” mogą otrzymać pewną iluzję. Można to porównać ze sprzedażą odpustów w średniowieczu.

Podany przykład może i jest dość prymitywny, ale pokazuje istotę problemu, to jest inflację pojęcia sztucznej inteligencji. W rzeczywistości to pojęcie znane już od 1943 r. Od długiego czasu wykorzystujemy sztuczną inteligencję, nawet nie będąc tego świadomym (na przykład w aparatach fotograficznych do odpowiedniego ustawiania parametrów zdjęć). Dopiero niedawno zaczęliśmy jednak być tego bardziej świadomi. Postęp technologiczny w tej dziedzinie, jaki odbywa się na naszych oczach, spowodował, że sztucznej inteligencji zaczęliśmy się nawet bać.

Algorytmy stają się coraz bardziej inteligentne
Jeszcze nie tak dawno temu wygrana komputera DeepBlue z Garrim Kasparowem (10 lutego 1996 roku) była sensacją. Dzisiaj AI w szachach jest uznawana za rodzaj dopingu. Trudno zatem wyraźnie wskazać granicę, od której chcemy ją regulować. Innymi słowy, AI też jest stopniowalna i pytanie się sprowadza do tego, czy chcemy regulować wszystkie jej rodzaje i to nawet te, z jakimi mieliśmy do czynienia już od dłuższego czasu. W końcu stosowanie wszystkich wymagań planowanych do prowadzenia nowym prawem do zwykłego kalkulatora wydaje się przesadą.

Z drugiej jednak strony, ustalając definicję legalną, konieczny jest pewien stopień ogólności. Jeżeli bowiem zastosujemy AI w przestarzałej wersji wyrobu medycznego, to dopiero może okazać się niebezpieczne. Jako ludzie mamy tendencję do tego, aby obdarzać wyniki uzyskane dzięki AI pewnym domniemaniem wiarygodności. Z tego powodu rozporządzenie UE wprowadza kilka klas ryzyka. Inaczej rzecz ujmując, wprowadza stopniowanie wymagań w zależności od przeznaczenia, a nie od stopnia zaawansowania. Jest to rozwiązanie sensowne, bo zapewnia jednolite podejście. Z czasem jednak można się spodziewać, że dojdzie do tego, że pojęcie sztucznej inteligencji straci na wartości.

Wypracowanie wiarygodnego algorytmu wymaga poniesienia dużych kosztów. Trzeba stworzyć architekturę (co samo w sobie nie jest proste), pozyskać dane, wytrenować algorytm, dokonać walidacji, oceny zgodności. Generalnie dużo pracy i kosztów, których obejść się nie da, bo wymagać będzie tego prawo. Może zaistnieć więc pokusa, żeby iść na skróty i skorzystać z marki „sztuczna inteligencja”, oferując tak naprawdę rozwiązanie prymitywne. Z czasem może dojść do powstania rynku AI dwóch prędkości. Z jednej strony będą tworzone bardzo zaawansowane rozwiązania, które przewyższą umiejętności człowieka, z drugiej natomiast powstanie rynek dla mniej zamożnych klientów, którzy będą też mniej świadomi.

Koszty iluzji działania
Z podobną sytuacją mamy do czynienia na rynku suplementów diety. Nikt nie kwestionuje potrzeby istnienia suplementów diety jako takich. Brak świadomości konsumentów i wiedzy, co do tego, czym jest suplement diety (w tym tego, że jest to rodzaj żywności) prowadzi do wykorzystywania ich naiwności przez nie do końca uczciwych przedsiębiorców.

Podobieństwo wizualne suplementu do produktów leczniczych oraz fakt, że można nabyć je w aptece, powoduje, że wielu pacjentów traktuje je jako lekarstwa dostępne od ręki. Na rynku oferowane są więc często suplementy, które nie zaszkodzą, ale też obiecanego efektu nie przyniosą. Pozwala to jednak zarobić. Skoro tak wielu konsumentów nie dostrzega, że suplement diety to rodzaj żywności a nie lek, to co dopiero, kiedy będą musieli rozstrzygać, czy algorytm zastosowany w wyrobie medycznym jest faktycznie efektem zaawansowanej myśli technicznej. Przecież nie wszystko złoto, co się świeci.

Koszty, jakie zapłacą konsumenci za pewną iluzję działania, będą pewną ceną braku precyzyjnej regulacji. Cena jednak to coś, co jednego zubaża, a drugiego wzbogaca. Zarabia się najlepiej, minimalizując koszty i zwiększając zyski. Trudno oczekiwać, aby przedsiębiorcy koszty te sami zwiększali. Patrząc na problem jednak z jeszcze innej strony – celem regulacji jest też pobudzenie rynku. Unia Europejska stawia sobie za cel stworzenie gospodarki konkurencyjnej opartej na danych. Tworzenie samych awangardowych rozwiązań jest kosztowne. Pojawiają się koszty tzw. ślepych uliczek, czyli błędów, które trzeba ponieść, aby wyciągnąć z nich wnioski. Z tego powodu często koszty przewyższają zyski – przynajmniej w krótkiej perspektywie. Tymczasem, jak wiadomo, gospodarka „musi się kręcić”. W końcu na badania i rozwój także potrzebne są pieniądze.

Podejście takie może jednak przynieść więcej szkód niż pożytków. Można się spodziewać, że na rynku pojawi się więcej algorytmów niższej jakości. Będzie to efekt minimalizacji kosztów i maksymalizacji zysku. W dłuższej perspektywie konsumenci staną się coraz bardziej świadomi i po czasie zaczną dostrzegać różnicę i brak przydatności pewnych rozwiązań. Na dłuższą metę brak jakości zacznie być problemem. Być może z czasem określenie „sztuczna inteligencja” stanie się pejoratywne.

 
© 2024 Termedia Sp. z o.o. All rights reserved.
Developed by Bentus.