Sztuczna inteligencja w medycynie a odpowiedzialność prawna

Opublikowano: 12 listopada, 2024Wydanie: Medicus (2024) 11/2024Dział: 4,6 min. czytania

W miarę jak sztuczna inteligencja (AI) zyskuje na znaczeniu w medycynie, niosąc ze sobą ogromne możliwości, rośnie również liczba pytań, które zadajemy sobie nawzajem i które bardzo często dotyczą odpowiedzialności za błędy popełniane przy jej użyciu.

W ostatnich tygodniach miałem przyjemność kilkukrotnie uczestniczyć w żywej dyskusji na ten temat w gronie zaprzyjaźnionych prawników i lekarzy. Nie zabrakło też mojego znajomego, niezwykle utalentowanego informatyka, który na co dzień zajmuje się tworzeniem systemów AI. Uczestnicy dyskusji byli mocno zaskoczeni, gdy mój kolega, będący ekspertem w dziedzinie algorytmów, stwierdził, że współczesne systemy

AI stają się coraz bardziej skomplikowane, nawet dla ich twórców. Szczególne obawy wśród programistów i osób zajmujących się AI budzą algorytmy typu black-box, które nawet dla wybitnych programistów informatyków są coraz trudniejsze do zrozumienia.

Czym są black-boxy?

Algorytmy typu black-box to systemy, które operują w sposób nieprzejrzysty, nawet dla tych, którzy je stworzyli. Wyobraźmy sobie czarną skrzynkę. Wrzucamy do niej dane, a ona wypluwa wyniki. Jednak to, co dzieje się wewnątrz niej, pozostaje tajemnicą. Widzimy jedynie efekty ich działania, ale nie mamy wglądu w to, jak komputer do nich doszedł. Może to hamować proces wdrażania AI w medycynie oraz w innych kluczowych dziedzinach, w których zrozumienie procesu decyzyjnego jest niezbędne. Na przykład gdy system AI zasugeruje konkretne leczenie, każdy odpowiedzialny lekarz chciałby wiedzieć, dlaczego właśnie tak zadecydował. Black-box oznacza, że niełatwo jest wyjaśnić krok po kroku, jak rozumował algorytm.

Odpowiedzialność lekarzy

Przede wszystkim to nadal my, lekarze, odpowiadamy za samodzielną ocenę wyników, inaczej można ponieść odpowiedzialność za błędne decyzje wygenerowane przez te systemy. Tu warto zadać sobie kilka zasadniczych pytań: Czy lekarz zrozumiał proces, na którym opiera się działanie AI? Czy potrafi zweryfikować wyniki i czy są one zgodne z dowodami naukowymi? Jakie działania podejmuje, by upewnić się, że wynik AI jest trafny? Choć AI może być bardzo pomocna, lekarze nie mogą jej bezmyślnie ufać, zwłaszcza gdy system ten działa w trybie black-box.

Odpowiedzialność producentów oprogramowania

Kiedy system AI wygeneruje błędne lub niezrozumiałe wyniki, odpowiedzialność powinna również spoczywać na producentach oprogramowania. Producent powinien również ponosić konsekwencje. Dotyczy to sytuacji, w których oprogramowanie nie funkcjonuje zgodnie z przewidywaniami producenta. Zatem warto zadać pytania: Czy algorytm został gruntownie przetestowany? Czy użytkownicy otrzymali pełne informacje na temat ograniczeń systemu? Czy uwzględniono ryzyko związane z potencjalnymi trudnościami w interpretacji wyników? Jak wiemy, producenci mają obowiązek zapewnić większą transparentność, nawet jeśli ich algorytmy działają w sposób trudny do zrozumienia, ale to tylko czyni ich dodatkowo współwinnymi w przypadku uszczerbku na zdrowiu pacjentów, a więc błędów, za które tradycyjnie oskarżano głównie lekarzy.

Odpowiedzialność placówek medycznych

Szpitale i kliniki, które wdrażają AI, także mogą zostać pociągnięte do odpowiedzialności. Istotne jest, by personel medyczny był odpowiednio przeszkolony i świadomy ograniczeń tych systemów. Kluczowe pytania dla placówek medycznych to: Czy szpital wdrożył system AI z należytą starannością? Czy lekarze i personel zostali właściwie przeszkoleni w zakresie działania algorytmów? Jakie mechanizmy nadzoru nad AI wdrożono? Dyrektorzy, zarządzający placówkami medycznymi powinni sprawnie się dostosować do gwałtownie zmieniającej się rzeczywistości. Muszą zrozumieć, że korzystanie z AI bez odpowiedniego nadzoru może prowadzić do poważnych konsekwencji.

Potrzeba nowych regulacji prawnych?

Obecne przepisy prawne nie zawsze nadążają za rozwojem zaawansowanych algorytmów AI. W przyszłości konieczne będzie stworzenie nowych ram prawnych, które jasno określą, kto i w jakim zakresie ponosi odpowiedzialność za błędy AI, zwłaszcza gdy ta coraz częściej działa autonomicznie. Tak więc algorytmy stosowane w medycynie muszą być projektowane w sposób umożliwiający ich audyt również przez specjalne komisje powołane w tym celu. Prawo powinno jasno określić, kto odpowiada za decyzje generowane przez AI – producent czy użytkownik. W chwili obecnej odpowiedzialność AI bardzo się rozmywa. AI powinno być używane ostrożnie, szczególnie w ochronie zdrowia. Na końcu każdej decyzji medycznej mającej wpływ na zdrowie i życie pacjenta powinien zawsze stać człowiek – lekarz.

Etyczne dylematy związane z AI

W miarę jak AI staje się coraz bardziej skomplikowana, narastają pytania o moralną odpowiedzialność za decyzje, które podejmuje. Czy jeśli pozwolimy, aby AI przejęła część naszych obowiązków, to czy przypadkiem nie zdehumanizujemy opieki zdrowotnej? Choć AI świetnie radzi sobie z analizą danych, to niestety nie zawsze uwzględnia etyczne aspekty, które są kluczowe w medycynie. A przecież zasada nieszkodzenia jest fundamentem etyki medycznej. Kluczowe w mojej opinii jest, abyśmy jako lekarze współpracowali z programistami i etykami w celu opracowania rozwiązań, które zapewnią, że AI będzie wspierać, a nie zastępować podstawowe zasady etyki w medycynie. Tylko wtedy będziemy mogli w pełni wykorzystać potencjał AI w opiece zdrowotnej, nie narażając pacjentów na zbędne ryzyko.

Dr n. med. Marek Derkacz, MBA
marekderkacz@interia.pl
(
autor jest absolwentem podyplomowych studiów: Prawo medyczne, socjologia i bioetyka w medycynie na Wydziale Prawa Uniwersytetu Warszawskiego)