Ukryty kod, ukryte ryzyko…
Medycyna od zawsze opierała się na przejrzystości i odpowiedzialności. Nasze decyzje muszą być wytłumaczalne, oparte na wiedzy i sumieniu, zakorzenione w relacji z pacjentem. Dlatego dziś, gdy sztuczna inteligencja coraz śmielej wkracza do gabinetów i szpitali, musimy zadać sobie pytanie: czy wciąż panujemy nad procesem leczenia, czy już zaczynamy podlegać czemuś, czego nie możemy zrozumieć ani nawet zweryfikować?
Nie ostrzegam przed samą technologią. AI może wspierać, przyspieszać, ratować czas, a więc zdrowie i życie. Ostrzegam jednak przed tym, kto i w jaki sposób nią zarządza. Coraz częściej słyszymy, że firmy technologiczne odmawiają ujawnienia kodu źródłowego swoich algorytmów, zasłaniając się tajemnicą handlową. A przecież tu stawką nie jest wynik finansowy, lecz życie pacjentów.
Wyobraźmy sobie sytuację, która już miała miejsce. Pacjent umiera po decyzji AI. Lekarz nie zna logiki systemu. Rodzina pozywa szpital. Szpital wskazuje na producenta. Producent odpowiada: „To tylko narzędzie. Kod jest tajemnicą handlową”.
Kto odpowiada za śmierć człowieka? Nikt… To nie abstrakcja, lecz fakty. W Stanach Zjednoczonych system predykcyjny nie rozpoznał sepsy i pacjentka zmarła, a firma odmówiła ujawnienia modelu. W Wielkiej Brytanii dane tysięcy pacjentów NHS zostały użyte do trenowania algorytmów bez ich zgody, a gdy poproszono o przejrzystość, odpowiedź była odmowna.
W Kanadzie lekarze musieli zatwierdzać decyzje systemu, choć nie mieli prawa zrozumieć, na jakiej podstawie je wydano.
W tej sytuacji niepokój rodzi się sam. Jeśli lekarz nie rozumie, dlaczego system podejmuje określone decyzje, pacjent straci zaufanie nie do technologii, lecz do lekarza. Nasza rola może zostać sprowadzona do „klikacza”, nasze powołanie do prostej funkcji administracyjnej.
Dlatego nie wolno nam przyglądać się i biernie czekać. Potrzebujemy narzędzi ochronnych, w naszym samorządzie lekarskim, w szpitalach, a nawet i przede wszystkim w ustawodawstwie.
Nie chodzi o to, by zatrzymać postęp, lecz by nadać mu właściwy kierunek. Dlatego przygotowałem dla polityków projekt ustawy o jawności algorytmów sztucznej inteligencji w medycynie.
Ustawa ta ma jeden cel: zagwarantować pacjentom i lekarzom prawo do przejrzystości i możliwość niezależnej kontroli każdego systemu, który ingeruje w proces leczenia. Równolegle powinniśmy powołać w ramach Naczelnej Izby Lekarskiej specjalną komórkę ds. AI, organ, który będzie certyfikował i opiniował technologie, zanim trafią one do naszych gabinetów, czy na szpitalne sale. Bo jeśli nie zbudujemy takiej tarczy, jutro obudzimy się w świecie, w którym lekarz nie decyduje już o niczym, pacjent nie rozumie i staje się bezbronny, a odpowiedzialność znika w cieniu „tajemnicy handlowej”.
Medycyna bez przejrzystości staje się hazardem. Pacjent nie może być numerem w systemie, lekarz nie może być dodatkiem do maszyny, a państwo zakładnikiem korporacji. Dlatego powtórzę głośno i wyraźnie: sztuczna inteligencja nie jest naszym wrogiem. Wrogiem jest brak jawności, brak odpowiedzialności i brak kontroli. Ostatnie słowo zawsze musi należeć do człowieka, do lekarza i nie ma tutaj żadnych wątpliwości, bo o ludzkim zdrowiu i życiu może ostatecznie decydować tylko drugi człowiek, który czuje, ma sumienie i wyrzuty sumienia. Człowiek, który ma odwagę spojrzeć pacjentowi w oczy i powiedzieć: „Zrobię wszystko, co mogę”. Nie chodzi tu o torpedowanie postępu.
Chodzi o władzę, zaś państwo, które traci kontrolę nad decyzjami medycznymi, traci poniekąd swoją suwerenność. Bo jeśli o życiu obywatela decyduje algorytm, a nie lekarz, i jeśli ten algorytm tworzy i kontroluje korporacja, a nie parlament, to demokracja staje się marną symulacją, a do tego nie możemy dopuścić i nie dopuścimy.
Dr n. med. Marek Derkacz, MBA
specjalista chorób wewnętrznych, specjalista endokrynolog, specjalista diabetolog
marekderkacz@interia.pl

