W 2024 roku CERT Polska zarejestrował ponad 100 tys. incydentów naruszenia cyberbezpieczeństwa – to wzrost o blisko 30 proc. rok do roku. Jak podaje instytucja, był to „absolutnie rekordowy” wynik. Aż 95 proc. wszystkich zgłoszeń stanowiły przypadki tzw. oszustw komputerowych, w tym próby wyłudzania poufnych danych, takich jak loginy, hasła czy dane bankowe.
Deepfake i syntetyczne tożsamości – nowe oblicze oszustw
Coraz częściej przestępcy wykorzystują sztuczną inteligencję, by podszywać się pod znane osoby. Tworzą syntetyczne tożsamości, łącząc prawdziwe i fałszywe dane, a następnie zalewają internet treściami generowanymi przez boty. Jedna osoba może dzięki temu symulować głos tysięcy użytkowników i manipulować opinią publiczną.
– Sztuczna inteligencja otwiera niesamowity potencjał. W miarę jak coraz łatwiej jest algorytmom naśladować ludzkie zachowania, cyberbezpieczeństwo musi wyjść poza zapory i hasła. Potrzebujemy sposobów na potwierdzanie ludzkiej tożsamości, by technologia nadal służyła ludziom, a nie ich oszukiwała – mówi Karol Chilimoniuk, odpowiedzialny za rozwój sieci World w Europie Centralnej.
Oszustwo na wygenerowaną twarz
Zjawisko deepfake’ów staje się coraz bardziej powszechne. W ciągu ostatnich trzech lat liczba takich oszustw wzrosła o 2137 proc., a w 2025 roku może zwiększyć się o kolejne 162 proc. Już w pierwszym kwartale tego roku liczba przypadków była o 19 proc. wyższa niż w całym 2024 roku.
Technologia deepfake wykorzystywana jest w przestępstwach na całym świecie. W Kanadzie starsza kobieta straciła 50 tys. dolarów po tym, jak dała się nabrać na głos spreparowany przez AI. W Hongkongu z kolei pracownicy firmy Arup wykonali przelew na 25 mln dolarów po rozmowie z deepfake’iem dyrektora finansowego.
Takie przypadki oszustw występują również w Polsce. Na Facebooku opublikowano film, w którym przy użyciu technologii deepfake wykorzystano wizerunek i głos prof. Henryka Skarżyńskiego do promowania preparatu medycznego. Materiał obejrzano 800 tys. razy, a profesor zdementował swój rzekomy udział w nagraniu. Ostatnią głośną sytuacją było wykorzystanie wizerunku biznesmena Rafała Brzoski i dziennikarza Mikołaja Kunicy w fałszywej reklamie.
Czy jesteś człowiekiem?
Tradycyjne systemy bezpieczeństwa, oparte na hasłach i kodach SMS, coraz częściej okazują się nieskuteczne.
– Dopóki nie zaczniemy weryfikować człowieczeństwa użytkowników w sieci, będziemy bezradni wobec fali fałszywych tożsamości, deepfake’ów i klonowanych głosów – mówi Karol Chilimoniuk.
Ekspert wskazuje, że boty potrafią dziś rozwiązywać testy CAPTCHA w mniej niż sekundę, podczas gdy ludziom zajmuje to kilkanaście. Konieczne staje się zatem wprowadzenie nowych rozwiązań pozwalających potwierdzić, że po drugiej stronie ekranu znajduje się rzeczywista osoba.
Proof-of-human – weryfikacja człowieczeństwa
Koncepcja proof-of-human, o której mówi Chilimoniuk, ma na celu potwierdzenie, że uczestnik interakcji w sieci jest człowiekiem, nie algorytmem. Mechanizm ten nie wymaga ujawniania danych osobowych, takich jak imię, nazwisko czy numer PESEL. Stanowi on niemożliwy do podrobienia sposób weryfikacji tożsamości i może być stosowany niezależnie od urządzenia czy poziomu wiedzy technicznej użytkownika.
– W ten właśnie sposób działa World ID – dzięki jednorazowej weryfikacji użytkownicy mogą korzystać z różnych usług, mając pewność, że wszyscy inni uczestnicy są prawdziwymi osobami – tłumaczy ekspert.
Sieć World dąży do stworzenia największej globalnej sieci „prawdziwych ludzi”. Projekt opracowany przez Sama Altmana, Maxa Novendsterna i Alexa Blanię ma na celu ochronę ludzkiej tożsamości w erze sztucznej inteligencji i przeciwdziałanie nadużyciom związanym z fałszywymi tożsamościami w internecie.
Przeczytaj także:
- Czego najbardziej boją się Polacy w sieci? Phishing na podium
- Prawie połowa firm ma konto w mediach społecznościowych
- Rekordowe wyceny big techów. Goldman Sachs: to jeszcze nie bańka inwestycyjna