Polski zespół naukowców z Politechniki Warszawskiej zaprezentuje swoje przełomowe badania nad wyjaśnialną sztuczną inteligencją (XAI) na jednej z najważniejszych światowych konferencji – ICLR 2025 w Singapurze. Ich projekt Xlungs, wspierający diagnostykę chorób płuc na podstawie tomografii komputerowej, nie tylko wykorzystuje najnowsze osiągnięcia w zakresie deep learningu, ale przede wszystkim stawia na przejrzystość i kontrolę decyzji podejmowanych przez algorytm.
Sztuczna inteligencja, której można zaufać
Model opracowany przez zespół MI².AI z Wydziału Matematyki i Nauk Informacyjnych PW nie ogranicza się do klasyfikowania obrazów medycznych. Oferuje lekarzom wgląd w proces decyzyjny – wskazując dokładnie, które fragmenty obrazu tomografii komputerowej miały wpływ na ocenę systemu. To kluczowe z punktu widzenia diagnostyki, bo lekarz może nie tylko zweryfikować wynik, ale również zrozumieć jego podstawy.
– Lekarz nie zaufa „czarnej skrzynce”. Musi mieć możliwość zweryfikowania, czy taka sugestia ma sens – wyjaśnia dr hab. inż. Marcin Luckner, kierownik prac deweloperskich w projekcie Xlungs.
Praca naukowa pt. „Rethinking Visual Counterfactual Explanations Through Region Constraint”, która będzie prezentowana w Singapurze, proponuje innowacyjne podejście do tzw. kontrfaktycznych wyjaśnień – jednego z kluczowych narzędzi w dziedzinie XAI (Explainable Artificial Intelligence). Zamiast wskazywać, co zmieniłoby decyzję modelu w całym obrazie, rozwiązanie skupia się na lokalnych fragmentach. To pozwala zidentyfikować konkretne obszary, których modyfikacja wpływałaby na wynik – co jest szczególnie przydatne w analizie obrazów medycznych.
Rewolucja w diagnostyce obrazowej
Xlungs to system, który może wspierać lekarzy – zwłaszcza radiologów i pulmonologów – w analizie badań tomografii komputerowej klatki piersiowej. Wykorzystuje on zbiór 40 tys. obrazów płuc i został opracowany z wykorzystaniem danych udostępnionych przez Polską Grupę Raka Płuca. Kluczową cechą systemu jest jego zgodność ze standardami dokumentacji medycznej. W rezultacie można go zintegrować z istniejącą infrastrukturą w szpitalach i klinikach.
– Podczas analizy danych pacjentów może dojść do sytuacji, w której to model „zobaczy” na obrazie potencjalnie groźną zmianę i zasygnalizuje to. Wówczas osoba prowadząca badanie powinna wiedzieć, co naprowadziło sztuczną inteligencję do takiego wniosku – mówi prof. Przemysław Biecek, kierownik projektu Xlungs.
AI, która spełnia normy prawa i oczekiwania etyczne
Wprowadzenie wymogów wyjaśnialności dla systemów sztucznej inteligencji, jakie przewiduje unijne rozporządzenie AI Act, stawia narzędzia takie jak Xlungs w uprzywilejowanej pozycji. Systemy wykorzystywane w medycynie klasyfikuje się jako tzw. systemy wysokiego ryzyka – dlatego muszą oferować możliwość weryfikacji swojego działania przez użytkowników.
Polscy naukowcy pokazują, że możliwe jest tworzenie AI, która nie tylko działa skutecznie, ale też budzi zaufanie. To w kontekście zdrowia i życia pacjentów ma fundamentalne znaczenie.
Projekt Xlungs jest realizowany w ramach programu INFOSTRATEG I, finansowanego przez Narodowe Centrum Badań i Rozwoju. To przykład, jak współpraca nauki z praktyką kliniczną oraz odpowiedzialne podejście do technologii mogą kształtować przyszłość medycyny.
Przeczytaj także:
- PGE Obrót i Microsoft stawiają na sztuczną inteligencję w energetyce
- Czytasz raport, a to pułapka. Nowe metody cyberataków oparte na AI
- Sztuczna inteligencja zamiast wyszukiwarki. Czy właściciele stron internetowych mają się czego bać?
- Sztuczna inteligencja „zadomowiła się” w naszym życiu? Tylu Polaków regularnie korzysta z GenAI