Kolejny problem pacjentów. Wsparcie dla lekarzy okazało się bublem

Rodzimy system ochrony zdrowia znajduje się w kryzysie. Permanentnym. Niektórzy twierdzą, że sytuację mogą poprawić cyfryzacja i narzędzia tzw. sztucznej inteligencji. Ale ich wdrożenie może przynieść nowe problemy.

Maciej Sikorski
0
Udostępnij na fb
Udostępnij na X
Kolejny problem pacjentów. Wsparcie dla lekarzy okazało się bublem

Ciekawe doniesienia płyną z kanadyjskiej prowincji Ontario. Audyt urzędników wykazał, że używanie tzw. sztucznej inteligencji przez lekarzy niekoniecznie służy pacjentom. Co więcej, czasem może im wręcz zaszkodzić. W jaki sposób?

Dalsza część tekstu pod wideo

Pomoc AI, czyli informacje wyssane z cyfrowego palca

Testom poddano rozwiązania służące do rejestrowania rozmów lekarzy z pacjentami i przetwarzania ich w notatki. Na szczęście odbywało się to w ramach symulowanych rozmów. Dlaczego na szczęście? Bo niemal połowa sprawdzanych narzędzi działa nieprawidłowo. Jednym z problemów było dopisywanie fałszywych informacji i sugerowanie planów leczenia, które nie pojawiły się w rozmowie. 

Zjawisko określane mianem halucynacji AI nie jest czymś nowym i nieznanym. To sytuacja, w której tzw. sztuczna inteligencja generuje fałszywe informacje i podaje je jako prawdziwe. Nie jest to działanie celowe – narzędzie po prostu nie odróżnia faktów od fikcji. Głośnym przykładem tego niedociągnięcia była książka Karoliny Opolskiej, o czym więcej przeczytacie w tym tekście.

Gdy AI wymyśla przypisy w książce, jest to sytuacja niepokojąca, ale raczej bez wpływu na ludzkie życie. W przypadku systemu ochrony zdrowia sprawy mają się już inaczej: halucynacje stwarzają zagrożenie dla zdrowia pacjentów. Ponad połowa systemów rejestracji mowy popełniła błąd w zakresie nazwy leku zapisanego przez lekarza. Łatwo sobie wyobrazić konsekwencje takiej pomyłki. 

Wrażliwe dane? Niech zapozna się z nimi cały szpital

Osobną kwestią jest bezpieczeństwo danych. W raporcie opisano przypadek systemu sporządzania notatek, który zarejestrował prywatne dane pacjenta... i rozesłał je do obecnych oraz byłych pracowników szpitala. 

Warto zaznaczyć, że systemów AI do transkrypcji rozmów z pacjentami w Ontario używa około 5 tys. lekarzy. 

Ktoś stwierdzi: niech się martwią w Kanadzie, nam to nie grozi. W tym momencie warto przypomnieć doniesienia z marca br. W szpitalu w Bydgoszczy wybuchła afera, bo pojawiło się podejrzenie, że lekarz diagnozował dziecko z pomocą tzw. sztucznej inteligencji. Dyrekcja placówki zaprzeczyła tym doniesieniom i tłumaczyła, że rozwiązanie wykorzystano do korekty językowej. Niesmak jednak pozostał. Pytanie o wykorzystywanie nowinek AI w polskim systemie ochrony zdrowia nie jest bezzasadne.