Jak oceniać SI w medycynie? Co z naszymi danymi?
Na jaki margines błędu możemy pozwolić sztucznej inteligencji (SI) w medycynie? Czy w ogóle możemy dopuszczać błędy? Co z obróbką naszych danych medycznych? Jan Zygmuntowski z Akademii Leona Koźmińskiego w Warszawie, który doktoryzuje się z łączenia zbiorów do trenowania SI tak, by uniknąć nadużyć, wyjaśnia, czemu pilnie potrzebujemy regulacji w tym obszarze.
Autorka: Beata Igielska
Ekspert: Jan Zygmuntowski, naukowiec zajmujący się SI,
Już dziś powoływane są fundacje z hasłem: "Oddaj nam swoje dane medyczne na cele naukowe"... Co pan o tym sądzi?
Z takim ruchem mamy już do czynienia również w Polsce. Są gracze, którzy będą chcieli to wykorzystać, powiedzą: "Przekaż nam dane, my wiemy, co z nimi zrobić". Albo: "Wszystko jest bezpieczne, bo możesz zobaczyć na blockchainie" (red: rejestrze zdecentralizowanych danych, które są bezpiecznie współużytkowane). Kolejne trudne słowo, kolejna trudna technologia – i wszystko wydaje się transparentne.
Tylko jak się człowiek temu przyjrzy, okazuje się, że blockchain to zmyłka. Nie wiadomo także, komu udostępnia się dane, a dokumenty dotyczące ich przekazania są podtykane np. ludziom leżącym w szpitalu, więc podpiszą wszystko, bo martwią się o swoje zdrowie.
Mamy więc nawarstwienie bardzo nieetycznych decyzji, które teoretycznie są legalne, bo są oparte o konstrukt prawny świadomej zgody, który nie był, jak widać, najmądrzejszy. Czy ktoś udziela świadomej zgody na używanie swoich danych, jeśli nie ma wiedzy, kto i w jakim celu używa tych danych? Moim zdaniem udzielanie świadomej zgody nie powinno polegać na przekazywaniu danych jakiejś fundacji kontrolowanej przez dwie, trzy osoby z zarządu, które mają swoje układy, tylko żeby ludzie bezpośrednio podejmowali decyzje, czyli głosowali nad przekazaniem danej firmie swoich danych na konkretne potrzeby.
To nie jest niemożliwe, choć brzmi zagmatwanie. Po pierwsze, skoro wszyscy możemy ściągnąć Internetowe Konto Pacjenta, to takie głosowania NFZ mógłby wprowadzić do tego konta. NHS (ang. National Health Service) w Wielkiej Brytanii już to robi, powołując obywatelskie ławy przysięgłych, które dostają wnioski i losuje się przypadkowych pacjentów z różnych grup demograficznych: młodych, starszych, z różnym wykształceniem i pyta się ich, czy uważają, że te dane powinny być przekazane, czy chcą, żeby taka oto sztuczna inteligencja była trenowana.
NHS nie jest jednak dobrym przykładem, bo sprzedawał dane Googlowi i Palantirowi, spółce spod znaku Elona Muska...
Ale na szczęście jest Finlandia, gdzie państwowa instytucja dysponuje danymi wszystkich Finów - 5,5 mln. Ta instytucja nie narusza prywatności, bo sama stworzyła bezpieczne środowisko programowania, dopuszcza do danych tylko na swoich zasadach, cyberbezpieczeństwo jest jej oczkiem w głowie, dopiero potem idą innowacje. Jeśli innowator - uczelnia - spełnia wszystkie warunki, dostaje dostęp.
To jest super, tylko brakuje czynnika ludzkiego. Moim zdaniem Polska musi znaleźć swoją drogę środka: zaangażować ludzi, mieć silne instytucje państwowe, które ten proces pociągną. Polaków jest prawie 40 milionów, to naprawdę łakomy kąsek. Bardzo musimy pewne sprawy przemyśleć. Przykładem dobrych praktyk w Polsce jest hasło „honorowy dawca danych”.
Jestem krwiodawcą, mój kolega jest innowatorem w krwiodawstwie, dla nas było bardzo ważne, żeby mówić o dawaniu danych w celu tworzenia sztucznej inteligencji, by budować postęp społeczny. Nie chciałbym, żeby ludzie mieli poczucie, że oddawanie danych dla interesu publicznego jest złe. Nie jest, jest potrzebne. Ale…
Obawiam się tu, niestety, technologicznej szopki.
Z całą pewnością pod kątem suwerenności technologicznej Polska jest kolonią.
Użytkownicy internetu nawet nie zdają sobie sprawy, że Google co prawda nie pobiera opłat za przeglądarki, ale używa naszych danych i nimi obraca. Tak więc przeciętnego Kowalskiego raczej nie obejdą tak trudne kwestie, o których teraz rozmawiamy.
Ależ Google pobiera opłaty np. za używanie map powyżej określonej liczby wyświetleń i każe sobie słono płacić. Normalny użytkownik tego nie widzi, dostarczamy dane i mapy są dzięki temu świetne, wykrywają korki w mieście itp. Ale jeśli ktoś używa aplikacji dostaw żywności, sporo płaci.
Zapytał pan sztuczną inteligencję, w jakich krokach tworzymy związek zawodowy, ta odparła - punkt pierwszy - idź do szefa - bo taki krok wydał jej się wiarygodny. Ta absurdalna odpowiedź pokazuje, jak bardzo SI musi być nadzorowana. A kto w polskim systemie ochrony zdrowia w obecnym jego kształcie miałby ten nadzór pełnić?
To jest dobre pytanie. Akademia Leona Koźmińskiego razem z polskimi legislatorami chce na nie odpowiedzieć. Na początku marca organizujemy dużą konferencje naukową pod patronatem Sejmu. Legislatorzy, lekarze i osoby rozumiejące problemy SI mają uzgodnić, jak wdrażać SI, jak ją oceniać, co to znaczy, gdy powiemy, że ten system jest dobry. Czy to, że 95 procent przypadków chorobowych rozpoznaje bardzo dobrze i nie myli się częściej niż człowiek, czy mamy wobec niego większe wymagania niż wobec człowieka? Jakiego rodzaju błędy może popełniać: czy jeśli coś jest chorobą, a on jej nie rozpozna i powie, że choroby nie ma, albo czy faktycznie nie ma choroby, a on powie: złapałem ten przypadek. Który błąd jest gorszy: wskazanie leczenia, kiedy ktoś jest zdrowy, czy niewskazanie leczenia, kiedy ktoś jest chory?
Na pytanie, kto powinien się tym zająć, odpowiem, że być może Agencja Oceny Technologii Medycznych i Taryfikacji, przy czym „technologie medyczne” w tej nazwie obecnie są rozumiane jako leki. Instytucja musiałaby rozciągnąć swoje myślenie, że „technologia medyczna” to również technologia cyfrowa mająca zastosowanie w medycynie. Tu jest ogromna praca instytucjonalna do wykonania. Początek drogi to odpowiedź na pytanie, kto ocenia. Dalsza podróż to odpowiedź na pytanie, kto ocenia efektywność i mówi: "To się jednak nie sprawdziło".
No i cały przedmiot sporu, czyli jak będziemy to taryfikować, jak będziemy wypłacać świadczenia za zastosowanie SI? Czyli jeśli ona jest wytworzona z publicznego grantu, na publicznej uczelni, wykarmiona danymi polskich pacjentów, ale na końcu drogi ktoś wynosi tę własność intelektualną IP do startupu, finansuje to duży fundusz venture capital, potem fundusz sprzedaje ten startup, np. Googlowi, a ten przychodzi do nas za dekadę i mówi: "Fajnie, że pobawicie się, to był pilotaż, od teraz za każdy skan, np. diagnostyki raka płuca, musicie zapłacić". A że idzie to już w dużym wolumenie, chodzi o ogromne pieniądze. Czy to jest etyczne?
A skoro jesteśmy przy etyce, trzeba podjąć temat umiejętnego łączenia zbiorów do trenowania SI. W Europie już powstają spółdzielnie danych. Co nie zmienia faktu, że rządy bardzo sprytnie realizują swoje interesy. Np. w drażliwym punkcie: dostęp do danych medycznych.
Właśnie to badam w moim doktoracie. Dobrze, że są spółdzielnie danych, ale one działają na poziomie bardzo lokalnym i rosną bardzo powoli. Kolebką spółdzielczości jest Szwajcaria - tam to działa dobrze, w kraju Basków też. W Polsce? Sam jestem spółdzielcą cyfrowym, ale na razie nawet nie zbliżamy się do danych medycznych. To jest bardzo trudne. Zawsze trzeba zadać pytanie, jak to finansować. Bo przecież nie chodzi o to, żeby pozbierać dane i sprzedać je wielkim korporacjom i mieć z tego tylko kieszonkowe.
Czy zatem nie powinno być globalnego porozumienia?
Moim zdaniem nie ma od tego ucieczki, bo ostatecznie cały układ systemu patentowego, własności intelektualnej, danych – wszystko to podlega układom międzynarodowym.
Wprowadziliśmy RODO i okazało się, że Facebook, Google, Amazon masowo je łamią. Maksymilian Szrems z Austrii pozywał te firmy - w kolejnych wyrokach wygrywał. Uznano, że przekazywanie danych do USA jest tak samo niebezpieczne jak do Chin czy Rosji. Co oznacza jedno: służby widzą wszystko, co tylko zechcą. Odpowiedź była taka, że potrzebne jest porozumienie między Unią Europejską a Stanami Zjednoczonymi na temat, jak wysyłać dane, żeby służby ich nie widziały. Każdy wiedział, że to fikcja, bo służby zawsze będą chciały widzieć dane. Z tym że służby w Stanach są o wiele potężniejsze niż u nas. Mimo tej oczywistej wiedzy stworzono fikcję, jaką jest umowa zwana „tarczą prywatności”. Takich porozumień międzynarodowych na temat przepływu danych jest mnóstwo. Japonia zamiast stosować się do RODO też woli podpisać jakąś umowę z całą UE.
Na najwyższym poziomie mamy Światową Organizację Handlu i porozumienie TRIPS, czyli porozumienie w sprawie Handlowych Aspektów Praw Własności Intelektualnej.
A podważenie TRIPS wiele razy wychodziło z sektora medycznego. Weźmy koronawirus. Wynaleziono szczepionki w krajach bogatej Północy, małe startupy podpisały umowy z dużymi firmami, np. niemiecki BionTech z Pfizerem, który jest w stanie produkować szczepionki. Ale i tak nie tyle dawek, żeby cały świat zaszczepić w odpowiednim czasie - kraje biedne będą ostatnie w kolejce. W takiej sytuacji warto byłoby znieść ochronę patentową. Jeśli RPA czy Indie będą same produkować szczepionki, to naprawdę nie zaszkodzi bogatym północnym graczom. Świat jest wystarczająco duży dla różnych producentów. Okazało się jednak, że „nie można” podważyć TRIPS. W innych przypadkach tworzono pule patentowe, specjalne wyłączenia. Jak gdzieś pojawiła się epidemia, stwierdzano: damy wam na chwilę wyjść spod reżimu patentowego.
Globalne porozumienie jest potrzebne, bo raz na zawsze załatwi problemy: kto ma prawo dysponować danymi? Co robimy, kiedy patenty realnie doprowadzają do zabijania ludzi i jakie są mechanizmy rozwiazywania tego? Monopolowi własności intelektualnej trzeba przeciwstawić większą wolność. Wiedza powinna być wolna, nikt nie traci na tym, że wiem coś więcej.
Rozmawiała Beata Igielska, zdrowie.pap.pl