{"vars":{{"pageTitle":"Sztuczna inteligencja w rękach hakerów. Microsoft ostrzega przed atakami z Rosji, Iranu czy Chin","pagePostType":"post","pagePostType2":"single-post","pageCategory":["news","przeglad-prasy"],"pageAttributes":["ai","chiny","cyberataki","cyberbezpieczenstwo","najnowsze","rosja","sztuczna-inteligencja","usa"],"pagePostAuthor":"Filip Majewski","pagePostDate":"19 lutego 2024","pagePostDateYear":"2024","pagePostDateMonth":"02","pagePostDateDay":"19","postCountOnPage":1,"postCountTotal":1,"postID":679006}} }
300Gospodarka.pl

Sztuczna inteligencja w rękach hakerów. Microsoft ostrzega przed atakami z Rosji, Iranu czy Chin

Microsoft ostrzega, że ​Iran, Korea Północna a także Rosja i Chiny zaczynają wykorzystywać sztuczną inteligencję do ataków hakerskich. W ostatnim czasie wykryto testy i próby wykorzystania AI do organizowania cyberataków na światowe firmy a także do działań wywiadowczych m.in. w wojnie na Ukrainie. 

O sprawie informuje The Guardian. Gazeta podaje, że Microsoft współpracuje z OpenAI (twórcą ChatGPT), aby wykryć i zneutralizować te zagrożenia. Sztuczna inteligencja pozwala cyberprzestępcom na tworzenie fałszywych treści, w tym e-maili, które mogą być używane do hakowania i manipulowania treściami jak i działaniami w internecie. Mechanizmy wykorzystujące AI stają się coraz bardziej powszechne nie tylko w firmach, lecz także wśród internetowych hakerów.


Czytaj także: Sztuczna inteligencja nie odbierze ci pracy od razu. Gospodarki nie są jeszcze na to gotowe


Microsoft w najnowszym raporcie przedstawił kilka przykładów jak Korea Północna, Rosja, Chiny czy Iran wykorzystywali AI do atakowania w sieci. W każdym z wymienionych przypadków konta i zasoby AI poszczególnych grup zostały zniwelowane. Microsoft określił te działania jako „ani szczególnie nowatorskie, ani unikalne”, lecz pokazuje to tylko, że sztuczna inteligencja zaczęła działać zarówno w pozytywnym jak i negatywnym celu, zwraca uwagę The Guardian.

Północnokoreańska grupa cyberprzestępcza znana jako Kimsuky wykorzystała modele AI do infiltrowania zagranicznych thinktanków oraz generowała treści, które mogłyby być wykorzystane w kampaniach tzw. spear-phishing.


Bądź na bieżąco z najważniejszymi informacjami subskrybując nasz codzienny newsletter 300Sekund! Obserwuj nas również w Wiadomościach Google.


Chińska grupa Maverick Panda, która od ponad dekady atakuje kontrahentów obronnych USA, miała wchodzić w  interakcje z dużymi modelami językowymi. Oceniano w ten sposób ich skuteczność jako źródła informacji „na potencjalnie wrażliwe tematy, wybitne osobistości, geopolitykę regionalną, wpływy USA i sprawy wewnętrzne kraju.

Z kolei Rosyjska jednostka wywiadu wojskowego GRU znana jako Fancy Bear wykorzystała AI do badania technologii satelitarnych i radarowych, które mogły służyć jako pomoc wywiadowcza w wojnie na terenie Ukrainy.

Polecamy także