Gdy algorytm zawodzi
Historia pacjentki, która zaufała sztucznej inteligencji, jest przestrogą przed tym, jak niebezpieczne może być oddanie zdrowia w ręce algorytmu.
Pacjentka, 42-letnia kobieta z niedoczynnością tarczycy w przebiegu choroby Hashimoto, od lat stosowała Letrox w standardowej dawce. Zmęczona brakiem efektów terapii, a także rozczarowana krótkimi konsultacjami medycznymi online, postanowiła wziąć sprawy w swoje ręce. Skorzystała z jednego z popularnych modeli językowych pełniącego rolę lekarza, który w trakcie konsultacji zaproponował jej terapię łączoną Novothyralem i co najważniejsze, miał jej pomóc przeliczyć dawkę dotychczas stosowanego Letroxu (zawierającego jedynie lewotyroksynę) na dawkę nowego preparatu Novothyralu, którego nigdy nie stosowała. Jest to lek łączący lewotyroksynę ze znacznie silniej działającą liotyroniną. Wszystko miało się odbyć profesjonalnie i bezpiecznie.
Na pierwszy rzut oka odpowiedź AI wydawała się profesjonalna. Model wyjaśnił, jak działa Novothyral i przedstawił przeliczenie dawki, opierając się na danych o zawartości lewotyroksyny i liotyroniny.
Już po kilku dniach pojawiły się pierwsze objawy nadczynności tarczycy: kołatanie serca, niepokój, uderzenia gorąca i osłabienie. Przerażona trafiła na SOR, tam rozpoznano nadczynność tarczycy spowodowaną zbyt wysoką dawką hormonów. Lek, zamiast jej pomóc, niemal doprowadził do przełomu tarczycowego – stanu bezpośredniego zagrożenia życia.
Technologia bez nadzoru lekarza to potencjalna katastrofa
Ten przypadek unaocznia, jak złudne może być zaufanie sztucznej inteligencji w medycynie. AI, choć imponuje zdolnością do przetwarzania informacji, działa wyłącznie na podstawie danych, którymi dysponuje. Jeśli dane wyjściowe są błędne – jak w przypadku informacji o składzie Novothyralu – algorytm nie zweryfikuje ich poprawności. Nie zapyta: „Czy na pewno? Czy coś się nie zgadza?”, bo nie ma tej zdolności do refleksji i krytycznego myślenia, którą posiada lekarz.
Poza tym AI nie miała dostępu do medycznej historii pacjentki: wcześniejszych wyników badań w reakcji na zmiany dawki lewotyroksyny, współistniejących chorób. Receptomat umożliwił zamówienie leku teoretycznie z udziałem lekarza, który otrzymał ankietę wypełnioną przez pacjentkę. W praktyce jednak lekarz nie zweryfikował kluczowych informacji, takich jak historia leczenia czy wcześniejsze stosowanie Novothyralu. W efekcie zaakceptował dawkę, o którą w ankiecie poprosiła pacjentka, i wyłącznie na podstawie jej prośby wystawił receptę. Wszystko odbyło się w ciągu zaledwie pięciu minut, bez głębszej analizy jej stanu zdrowia. Pacjent, zamiast otrzymać kompleksową opiekę medyczną, został postawiony w sytuacji, w której sam musiał ustalić swoje leczenie, a lekarz jedynie formalnie potwierdził jego wybór.
Technologia wspiera, ale nie decyduje
W dobie cyfryzacji medycyny coraz więcej pacjentów ufa, że AI może zastąpić lekarza. Tymczasem algorytmy nie mają intuicji ani empatii, którą mogą jedynie perfekcyjnie udawać. Tym sposobem z łatwością zaskarbiają sobie zaufanie pacjentów. Model AI nie jest również w stanie precyzyjnie ocenić – tak jak lekarz – czy dawka leku jest odpowiednia, ani przewidzieć, jakie skutki uboczne mogą wystąpić u konkretnej osoby. Lekarz, analizując stan pacjenta, może dostrzec sygnały, których maszyna nie zauważy, takie jak subtelne zmiany w zachowaniu, tonie głosu czy w wyglądzie fizycznym.
Jak naprawić system?
Należy wprowadzić obowiązkowe badania osobiste pacjenta przed wystawieniem recepty na leki hormonalne, psychotropowe, opioidy i inne substancje wymagające precyzyjnego dawkowania. Zapoznać się z dokumentacją uwzględniającą historię leczenia pacjenta i być świadomym, że szybkie wystawienie recepty na podstawie ankiety może mieć poważne konsekwencje prawne i etyczne. Systemy receptomatów powinny być zaprojektowane jako narzędzia wspierające decyzje lekarza, a nie je zastępujące. Każda recepta powinna być wystawiana dopiero po rzeczywistej konsultacji medycznej. Podsumowując, zdrowie to nie transakcja.
Dr n. med. Marek Derkacz, MBA
marekderkacz@interia.pl