Sztuczna inteligencja i COVID-19
„Sztuczna inteligencja nie jest cudowną bronią”

Kobieta w maseczce patrzy na swojego smartfona.
Kaszlnij, a smartfon powie ci, czy musisz się poddać testowi. Czy sztuczna inteligencja zrewolucjonizuje sektor usług medycznych? | Foto (Fragment): © Unsplash/Engin Akyurt

Jakie miejsce zajmuje sztuczna inteligencja w systemie ochrony zdrowia, w którym interakcje między ludźmi mają tak duże znaczenie? W rozmowie z dziennikarkami naukowiec Rahul Panicker wskazuje na kilka problemów ze sztuczną inteligencją i podkreśla, że w pandemii może być dla nas mimo wszystko pomocna.

Svenja Hoffmann i Natascha Holstein

Obserwujemy, jak cyfryzacja i technologia sztucznej inteligencji stopniowo wkraczają do wszystkich dziedzin życia. Należy do nich system ochrony zdrowia, który tradycyjnie jest nastawiony raczej na bezpośrednie interakcje między ludźmi. Jak wykorzystanie sztucznej inteligencji może usprawnić ten obszar?

Możliwości są ogromne, zwłaszcza w dziedzinie globalnego zdrowia. Brakuje wszak pielęgniarek, wykształconych lekarzy i specjalistów, a także wykwalifikowanych pracowników w sektorze usług zdrowotnych. Użycie algorytmów stwarza zatem niesamowitą szansę na poszerzenie zasięgu działania personelu medycznego i systemów ochrony zdrowia. Nasuwa się na przykład pytanie, jak możemy zbliżyć do siebie specjalistów z pierwszej linii frontu i lekarzy podstawowej opieki zdrowotnej? Odpowiedź brzmi: właśnie przy wsparciu algorytmów. Proszę sobie wyobrazić, jakie mogłyby być efekty leczenia rozmaitych chorób. Kolejna pozytywna możliwość implementacji sztucznej inteligencji w ochronie zdrowia polega na wykorzystaniu jej do rozpoznawania sygnałów, które ludziom trudno wychwycić, a które algorytmy identyfikują bez kłopotu. Weźmy choćby wyniki stosunkowo nowych badań opierających się na skanach PET (pozytywnej emisyjnej tomografii). Dowodzą one, że algorytmy potrafią przewidzieć wystąpienie choroby Alzheimera u pacjentów pięć lat wcześniej, niż umożliwiają to tradycyjne metody diagnostyczne. Te zdolności sztucznej inteligencji są poniekąd nadludzkie. Trzecią możliwością – oprócz poszerzenia zasięgu opieki medycznej i lepszej diagnostyki – jest minimalizacja ryzyka. Oznacza to, że sztuczna inteligencja może być w zasadzie systemem wsparcia dla krewnych opiekujących się chorymi i zmniejszać liczbę błędów medycznych. Mógłbym wymienić jeszcze kilka zastosowań, ale te są najistotniejsze.

Wiadomo, że ludzie popełniają błędy, natomiast sztuczna inteligencja pozwala ich uniknąć. Tyle że sztuczną inteligencję programują ludzie. Stąd pytanie: czy algorytmy także są podatne na błędy.

Oczywiście. Zawsze istnieje pewne prawdopodobieństwo, że dana technologia zawiedzie, a konsekwencje, zwłaszcza w zakresie ochrony zdrowia, mogą być bardzo poważne i obejmować całe spektrum: od drobnych uciążliwości aż po stany grożące utratą życia. Tak może być w sytuacji, gdy źle zadziała system podtrzymywania życia lub gdy nieprawidłowo zdiagnozowano ciężką chorobę. Znane są takie przypadki w technologiach zdrowotnych. Jednak w pierwszym rzędzie stawiamy sobie pytania: Co możemy zrobić lepiej? Czy możemy zmniejszyć prawdopodobieństwo popełnienia błędu medycznego? Duże znaczenie ma tu kwestia zniekształcenia. Są narzędzia służące do tłumienia uprzedzeń, których powinno się używać. Mimo to niektórzy zawsze będą kierowa się tu i ówdzie przesądami. Istnieje też podstawowy problem z samym uprzedzeniem, a jest nim nasza definicja „uczciwości”. Nie mamy jednolitej definicji tej koncepcji i pewnych wyjaśnień nie sposób pogodzić z innymi. Ale zostawmy na chwilę tę kwestię. Owszem, pragniemy ulepszyć nasze systemy. Poszedłbym nawet o krok dalej i stwierdził, że rzecz nie tylko w tym, by uczynić algorytmy bardziej uczciwymi. Chodzi też o to, by uczyni uczciwym dostęp do usług medycznych. Jakie możliwości dają nam nowe technologie? Czy niosą ze sobą równe podejście do danych? A może potęgują nierówności? Nie chodzi wyłącznie o same algorytmy, ale też o to, gdzie się je stosuje i kto ich używa. Kto na tym zyskuje? Wiele tego typu pytań wykracza poza zagadnienie sztucznej inteligencji.

W czasie pandemii koronawirusa uruchomił pan projekt Cough Against Covid. Jakie jest jego zamierzenie?

Pomysł zasadza się na analizie odgłosów kaszlu i porównaniu ich, na wielu poziomach, z kaszlem „covidowym”. Mamy nadzieję, że zdołamy użyć Cough Against Covid jako narzędzia triażu i badań przesiewowych. Na podstawie testu kaszlu algorytm tworzy listę rankingową osób, a tym, u których prawdopodobieństwo zakażenia jest największe, radzimy poddać się testowi na obecność wirusa. Jeśli więc punkt badań może pobrać wymaz tylko od 200 osób, Cough Against Covid pozwala ocenić, które 200 osób powinno wykonać test.

Co jest wyjątkowego w Cough Against Covid? Czym wyróżnia się spośród innych projektów, które są obecnie w fazie testów?

Kiedy w marcu 2020 roku rozpoczynaliśmy projekt, był on eksperymentem. Porównałbym go do zarzucania sieci – nie wiedzieliśmy, czy uda nam się coś złowić. Dysponowaliśmy tylko wcześniejszymi publikacjami na ten temat, dla przykładu badaniami odgłosów kaszlu, które miały pomóc w diagnozowaniu innych chorób dróg oddechowych. Najbardziej motywowała nas myśl, że w przypadku powodzenia program mógłby być stosowany na szeroką skalę, ale nie mogliśmy przewidzieć ostatecznego wyniku. Wydolność testowa w przypadku koronawirusa jest ograniczona. Dotyczy to zarówno liczby testów, jak i personelu czy rozkładu geograficznego. Cough Against Covid wymaga jedynie dostępu do telefonu, nie musi to być nawet smartfon. Istnieją różne opcje implementacji programu. Można zadzwoni na bezpłatny numer telefonu i zakasłać do mikrofonu. Można też nagrać odgłos kaszlu i przesłać za pomocą aplikacji WhatsApp. Nie trzeba ściąga samego programu. I właśnie na tym nam zależało. Bez potrzeby posiadania aplikacji czy w ogóle smartfona zasięg oddziaływania projektu byłby możliwie największy. Pierwsze miesiące przyniosły bardzo obiecujące wyniki, które mogłyby mieć ogromny wpływ na sytuację związaną z testowaniem.

Jakie są prognozy dla przyszłości projektu?

Chcemy otworzyć dostęp do niego poprzez systemy opieki zdrowotnej. Jest to o tyle istotne, że sztuczna inteligencja może oczywiście wywołać fałszywy alarm. Udostępnienie programu bezpośrednio zainteresowanym byłoby więc niewłaściwe. Chcemy również, aby rozpowszechnił się on w krajach, których zasoby są ograniczone w podobny sposób. Mogliby więc na tym skorzystać mieszkańcy innych części świata, gdzie działają inne systemy opieki zdrowotnej.

Jakie możliwości stwarza sztuczna inteligencja w kontroli COVID-u i co możemy zrobić, aby w przyszłości zapobiec tego typu pandemiom?

Możliwości jest sporo. Jedną z dziedzin, w której daje się wykorzystać sztuczną inteligencję produktywnie, jest projektowanie nowych leków. Poza tym mogą jej używać miasta, aby bardziej wyczuli mieszkańców na COVID i stworzyć plany gospodarowania dostępnymi zasobami. Można też po nią sięgnąć, by na podstawie zgromadzonych danych prognozować wystąpienie nowych obszarów ryzyka, co władze mogą wykorzystać w działaniach proaktywnych. Rzecz jasna, istnieją też ograniczenia. Kiedy używam słowa „prognozować”, mam na myśli to, że kiedy wirus się już rozprzestrzenia, sztuczna inteligencja może służyć do prognozy nowych obszarów ryzyka. Jednak zdolność do samodzielnej identyfikacji wirusa bądź początku pandemii jest w istocie większym problemem. Sztuczna inteligencja nie dysponuje jeszcze takimi umiejętnościami, gdyż dopiero uczy się z danych historycznych. Co prawda, opublikowano już ciekawe prace, które mają jej pomóc w nabyciu tych umiejętności. Wymaga to jednak nie tylko wydobycia wiedzy z dostępnych danych, ale też zdolności do analizy nowych możliwości. Powiedzmy, że przed październikiem 2019 roku nie dysponowaliśmy żadnymi danymi, które pozwoliłyby stwierdzić, iż niebawem wybuchnie epidemia. Dlatego najlepszą rzeczą, jaką możemy zrobić, jest wczesne wychwycenie „wyzwalaczy”. Powinien istnieć mechanizm wczesnego ostrzegania, abyśmy mogli wiedzieć, że coś się dzieje.

Jak miałoby to wyglądać?

Istnieją na przykład sieci nadzoru wysyłające alerty o zagrożeniach. Decydująca dla właściwej reakcji na te ostrzeżenia jest integracja systemów danych, która pozwoliłaby dostrzec, że chodzi o nową chorobę przebiegającą w inny sposób niż znane przypadki grypy. Można by więc wyciągnąć wniosek, że dzieje się coś nietypowego. Ostatecznie chodzi o szukanie odstępstw od normy, przy czym normą jest grypa. Analogicznie jest z rozpoznawaniem oszustwa: chodzi o wykrywanie podejrzanych zachowań.

Czy pana zdaniem pandemia przyczyni się do zwiększenia obecności sztucznej inteligencji w przestrzeni publicznej?

Wydaje mi się, że i tak, i nie. Pandemia pokazała nam, że sztuczna inteligencja nie jest najważniejsza. O wiele bardziej potrzebni są: dostawcy sprzętu medycznego, maseczki czy śledzenie kontaktów z osobami zakażonymi. Chcemy móc zapobiegać wybuchom epidemii, a to wymaga kompetentnych osób na miejscu zdarzeń oraz środków podejmowanych przez władze. To nie są techniczne problemy oprogramowania. W jakimś stopniu okazuje się, że Dolina Krzemowa ma ograniczone wpływy. W takich sytuacjach sztuczna inteligencja nie jest rozwiązaniem. A więc to jest odpowiedź „nie”.

Odpowiedź „tak” odnosi się do naukowców prowadzących badania nad sztuczną inteligencją, którzy robią wszystko, by pomóc. Proszę spojrzeć na kilka wymienionych przykładów: projektowanie nowych leków, promienie Rentgena oraz technologie związane z prognozami lub badaniami przesiewowymi, takimi jak nasz projekt. W dziedzinach, w których technologie zdają się być pomocne, szybciej dopuszcza się je do użytku. I tak z pewnością jest. Jednak warto postrzegać sztuczną inteligencję w szerszym kontekście. Ona nie jest cudowną bronią.