{"vars":{{"pageTitle":"Cios w cyberprzestępców. AI trzykrotnie przyspiesza wykrywalność złośliwego oprogramowania","pagePostType":"post","pagePostType2":"single-post","pageCategory":["news"],"pageAttributes":["ai","artificial-intelligence","badania-nad-sztuczna-inteligencja","cyberataki","cyberbezpieczenstwo","hakerzy","najnowsze","sztuczna-inteligencja"],"pagePostAuthor":"Filip Majewski","pagePostDate":"1 grudnia 2023","pagePostDateYear":"2023","pagePostDateMonth":"12","pagePostDateDay":"01","postCountOnPage":1,"postCountTotal":1,"postID":635601}} }
300Gospodarka.pl

Cios w cyberprzestępców. AI trzykrotnie przyspiesza wykrywalność złośliwego oprogramowania

Sztuczna inteligencja przyspiesza analizowanie złośliwego oprogramowania i robi to z prawie 300-procentową większą dokładnością niż tradycyjne narzędzia, które nie są wspomagane przez AI, wynika z raportu „Empowering Defenders” firmy VirusTotal.

Cyberbezpieczeństwo spędza sen z powiek mieszkańców Europy oraz tutejszych firm i instytucji państwowych. Złośliwe oprogramowanie wymieniane jest jako jedno z największych zagrożeń w Unii. W Europie brakuje ekspertów ds. cyberbezpieczeństwa, więc analiza złośliwego oprogramowania jest jedną z najbardziej pożądanych umiejętności wymagających wiedzy technicznej.

Raport „Empowering Defenders: How AI is shaping malware analysis” podkreśla, że AI może odgrywać kluczową rolę w zapewnieniu cyberbezpieczeństwa, wykrywając nawet o 70 proc. więcej złośliwych skryptów niż dotychczasowe metody. Szczególnie w przypadku ataków na urządzenia z wykorzystaniem luk w zabezpieczeniach czy exploitów, AI okazała się dokładniejsza nawet o 300 proc.


Czytaj także: Nowe wyzwania Google. Sztuczna inteligencja wprowadza w błąd


AI rozkłada cyberzagrożenia na czynniki pierwsze

Dzięki wprowadzeniu funkcji Code Insight w pierwszej połowie bieżącego roku, eksperci z VirusTotal odkryli, że sztuczna inteligencja znacząco przyspiesza analizę skomplikowanych skryptów, która wcześniej była wykonywana ręcznie. AI nie tylko umożliwia szybkie wykrycie złośliwego kodu, lecz także potrafi w prosty sposób wyjaśnić analitykom jego naturę oraz przeznaczenie.

Technologia może tworzyć nowe zagrożenia, ale może też pomóc nam z nimi walczyć. Możliwości AI w zakresie analizowania i wyjaśniania złośliwych skryptów będą mieć ogromne znaczenie dla cyberbezpieczeństwa, ponieważ osoby, które nie mają specjalistycznej wiedzy, będą mogły wykrywać ataki złośliwego oprogramowania i im zapobiegać. Badaczom i osobom czuwającym nad cyberbezpieczeństwem AI pozwoli zaoszczędzić ogromną ilość czasu i umożliwi obronę przed różnego rodzaju atakami i narzędziami stosowanymi przez osoby przeprowadzające ataki – mówi Vicente Diaz, strateg ds. analizy zagrożeń w zespole VirusTotal.

Nowa funkcjonalność nie tylko zwiększa skuteczność aktualnych narzędzi stosowanych w zapewnianiu bezpieczeństwa sieciowego, dostarczając bardziej szczegółowych informacji o analizowanym kodzie i poszerzając możliwości tych narzędzi w zwalczaniu potencjalnych zagrożeń.

Przestępcy w sieci nie boją się użyć AI

Wcześniejsza prognoza Google Cloud na rok 2024 zapowiadała wykorzystanie AI do poprawy wykrywania zagrożeń, reagowania na nie, oraz przyspieszenia analizy złośliwego oprogramowania. Jednak badania VirusTotal ujawniają, że cyberprzestępcy coraz częściej wykorzystują generatywną AI do podszywania się pod wiarygodne rozwiązania, co utrudnia wykrycie ataków.

Zespoły odpowiedzialne za cyberbezpieczeństwo mają trudności z szybkim wykrywaniem zagrożeń, ponieważ cyberprzestępcy działają coraz sprawniej, skracając czas potrzebny na ataki. Powoduje to powstawanie tzw. luki wykrywalności naruszeń bezpieczeństwa, czyli momentu od włamania do sieci do faktycznego wykrycia incydentu.

Średni czas wykrycia takiego incydentu może wynosić do 280 dni, przy czym średni koszt naruszenia bezpieczeństwa danych na świecie to 3,86 mln dolarów. Te dane podkreślają istotność integracji dostępnych zabezpieczeń w celu skutecznej ochrony, wynika z raportu Ponemon Cost of a Data Breach Report 2020, cytowanego przez Exclusive Networks.

Badanie wykazało również, że osoby przeprowadzające ataki w sieci coraz częściej tworzą złośliwe oprogramowanie podszywające się pod rozwiązania oparte na sztucznej inteligencji, w których wykorzystują tekst i obrazy generowane przez AI, aby wzbudzać większe zaufanie użytkowników.

Na przykład udostępniają strony internetowe, na których używają ikon znanych rozwiązań opartych na AI, co ma zwiększyć ich wiarygodność. W efekcie oszukany użytkownik pobiera złośliwe oprogramowanie lub pada ofiarą kradzieży danych, podano również.


Bądź na bieżąco z najważniejszymi informacjami subskrybując nasz codzienny newsletter 300Sekund! Obserwuj nas również w Wiadomościach Google.


Duży potencjał wciąż do wykorzystania

Phil Venables, główny specjalista ds. bezpieczeństwa informacji w Google Cloud, podkreśla, że AI ma potencjał w wykrywaniu luk w zabezpieczeniach i exploitów z dokładnością nawet 300 proc. Choć istnieje zagrożenie ze strony cyberprzestępców, to sztuczna inteligencja może stać się kluczowym narzędziem w walce z zagrożeniami sieciowymi.

Choć niepokojące jest to, że oprogramowanie typu adware podszywa się pod rozwiązania online oparte na AI, jednocześnie sztuczna inteligencja może pomóc w wykrywaniu powszechnych luk w zabezpieczeniach i exploitów, a także w ochronie przed ich wykorzystywaniem, z nawet 300 proc. większą dokładnością. Co ważne, w miarę trenowania sztuczna inteligencja będzie coraz lepiej radzić sobie z wykrywaniem zagrożeń i zapobieganiem im, więc najlepsze jeszcze przed nami – mówi Phil Venables, główny specjalista ds. bezpieczeństwa informacji w Google Cloud.

Polecamy także: