{"vars":{{"pageTitle":"Polska AI wspiera diagnozowanie chorób płuc i wyjaśnia swoje decyzje","pagePostType":"post","pagePostType2":"single-post","pageCategory":["news"],"pageAttributes":["badania-nad-sztuczna-inteligencja","innowacje-w-diagnostyce","main","najnowsze","nowoczesna-medycyna","nowotwory","sztuczna-inteligencja","technologie-medyczne","zastosowanie-sztucznej-inteligencji"],"pagePostAuthor":"Zespół 300Gospodarki","pagePostDate":"18 kwietnia 2025","pagePostDateYear":"2025","pagePostDateMonth":"04","pagePostDateDay":"18","postCountOnPage":1,"postCountTotal":1,"postID":739211}} }
300Gospodarka.pl

Polska AI wspiera diagnozowanie chorób płuc i wyjaśnia swoje decyzje

Polski zespół naukowców z Politechniki Warszawskiej zaprezentuje swoje przełomowe badania nad wyjaśnialną sztuczną inteligencją (XAI) na jednej z najważniejszych światowych konferencji – ICLR 2025 w Singapurze. Ich projekt Xlungs, wspierający diagnostykę chorób płuc na podstawie tomografii komputerowej, nie tylko wykorzystuje najnowsze osiągnięcia w zakresie deep learningu, ale przede wszystkim stawia na przejrzystość i kontrolę decyzji podejmowanych przez algorytm.

Sztuczna inteligencja, której można zaufać

Model opracowany przez zespół MI².AI z Wydziału Matematyki i Nauk Informacyjnych PW nie ogranicza się do klasyfikowania obrazów medycznych. Oferuje lekarzom wgląd w proces decyzyjny – wskazując dokładnie, które fragmenty obrazu tomografii komputerowej miały wpływ na ocenę systemu. To kluczowe z punktu widzenia diagnostyki, bo lekarz może nie tylko zweryfikować wynik, ale również zrozumieć jego podstawy.

Lekarz nie zaufa „czarnej skrzynce”. Musi mieć możliwość zweryfikowania, czy taka sugestia ma sens – wyjaśnia dr hab. inż. Marcin Luckner, kierownik prac deweloperskich w projekcie Xlungs.

Praca naukowa pt. „Rethinking Visual Counterfactual Explanations Through Region Constraint”, która będzie prezentowana w Singapurze, proponuje innowacyjne podejście do tzw. kontrfaktycznych wyjaśnień – jednego z kluczowych narzędzi w dziedzinie XAI (Explainable Artificial Intelligence). Zamiast wskazywać, co zmieniłoby decyzję modelu w całym obrazie, rozwiązanie skupia się na lokalnych fragmentach. To pozwala zidentyfikować konkretne obszary, których modyfikacja wpływałaby na wynik – co jest szczególnie przydatne w analizie obrazów medycznych.

Rewolucja w diagnostyce obrazowej

Xlungs to system, który może wspierać lekarzy – zwłaszcza radiologów i pulmonologów – w analizie badań tomografii komputerowej klatki piersiowej. Wykorzystuje on zbiór 40 tys. obrazów płuc i został opracowany z wykorzystaniem danych udostępnionych przez Polską Grupę Raka Płuca. Kluczową cechą systemu jest jego zgodność ze standardami dokumentacji medycznej. W rezultacie można go zintegrować z istniejącą infrastrukturą w szpitalach i klinikach.

Podczas analizy danych pacjentów może dojść do sytuacji, w której to model „zobaczy” na obrazie potencjalnie groźną zmianę i zasygnalizuje to. Wówczas osoba prowadząca badanie powinna wiedzieć, co naprowadziło sztuczną inteligencję do takiego wniosku – mówi prof. Przemysław Biecek, kierownik projektu Xlungs.

AI, która spełnia normy prawa i oczekiwania etyczne

Wprowadzenie wymogów wyjaśnialności dla systemów sztucznej inteligencji, jakie przewiduje unijne rozporządzenie AI Act, stawia narzędzia takie jak Xlungs w uprzywilejowanej pozycji. Systemy wykorzystywane w medycynie klasyfikuje się jako tzw. systemy wysokiego ryzyka – dlatego muszą oferować możliwość weryfikacji swojego działania przez użytkowników.

Polscy naukowcy pokazują, że możliwe jest tworzenie AI, która nie tylko działa skutecznie, ale też budzi zaufanie. To w kontekście zdrowia i życia pacjentów ma fundamentalne znaczenie.

Projekt Xlungs jest realizowany w ramach programu INFOSTRATEG I, finansowanego przez Narodowe Centrum Badań i Rozwoju. To przykład, jak współpraca nauki z praktyką kliniczną oraz odpowiedzialne podejście do technologii mogą kształtować przyszłość medycyny.


Przeczytaj także: