Aspekt cyberbezpieczeństwa przy wdrażaniu sztucznej inteligencji analizuje 92 proc. firm w Polsce, przy czym 37 proc. z nich bierze pod uwagę ten obszar tylko w ograniczonym stopniu, wynika z badania EY Polska „Jak polskie firmy wdrażają AI”.
Stosowanie rozwiązań opartych na AI w wielu firmach staje się już normą i szansą na istotne zwiększenie efektywności swoich działań. Jednak jak każda technologia, również i ta niesie ze sobą zarówno szanse, jak i zagrożenia, na czele z wirtualnymi ryzykami.
Wyniki badania EY wskazują, że dla rodzimych przedsiębiorców kwestie dotyczące cyberbezpieczeństwa przy implementacji narzędzi AI są istotne. Ponad połowa z nich (55 proc.) rozważa ten aspekt, a kolejne 37 proc. bierze go pod uwagę w ograniczonym zakresie. 3 proc. respondentów zupełnie ignoruje ten temat, podano.
Czytaj także: Co trzecia firma zwolniła już kogoś przez AI. Sztuczna inteligencja rozpycha się na rynku pracy
Firmy deklarują analizę zagrożeń użycia AI
– Wraz ze wzrostem zastosowań sztucznej inteligencji pojawiają się nowe zagrożenia, które wymagają ochrony sieci i systemów informatycznych przed atakami. Firmy w Polsce deklarują, że analizują potencjalne ryzyka, jednak praktyka w wielu przypadkach wygląda mniej optymistycznie. AI jest postrzegana głównie jako technologiczna nowość i kojarzona z takimi rozwiązaniami jak chatboty. Tymczasem to zupełnie nowy obszar ryzyka, a wiele przedsiębiorstw nie jest przygotowanych na cybernetyczne zagrożenia – powiedział partner EY, lider Zespołu Cyberbezpieczeństwa w regionie EMEIA Piotr Ciepiela, cytowany w komunikacie.
– Zaliczymy do nich ataki z wykorzystaniem spersonalizowanych wiadomości phishingowych, próby wyłudzeń z użyciem komunikatów zawierających nagranie głosowe łudząco podobne do głosu znanych nam osób czy też łatwiejsze pisanie kodów przez hakerów chcących znaleźć luki w oprogramowaniu. Efektem coraz swobodniejszego i niebezpiecznego wykorzystania narzędzi AI jest coraz rosnący problem z wyciekiem wrażliwych danych – podkreśla Ciepiela.
Ważnym typem działań w zakresie cyberbezpieczeństwa jest wprowadzenie odpowiednich procedur dotyczących używania systemów AI. Z badania EY wynika, że najwięcej respondentów (40 proc.) wdrożyło politykę korzystania zarówno z wewnętrznych, jak i ogólnodostępnych narzędzi AI np. chatbotów. Pod kontrolą 26 proc. firm znajduje się używanie wyłącznie zewnętrznych systemów, a 30 proc. dopiero zastanawia się nad przyjęciem jakichkolwiek zasad, podkreślono.
Respondenci mają świadomość zagrożeń, dlatego chatboty coraz częściej stają się przedmiotem regulacji w wielu firmach. Niemal połowa (47 proc.) dopuszcza możliwość korzystania z nich w określonych przypadkach, zaś 15 proc. pozwala na to tylko w celach służbowych. Co czwarta organizacja (24 proc.) nie wprowadziła jeszcze żadnych polityk w tym obszarze, ale analizuje taką możliwość.
– Firmy w Polsce stosują różne podejścia do zarządzania ryzykiem związanym z wdrożeniem systemu AI. Niemal co trzeci ankietowany (31 proc.) zidentyfikował najważniejsze zagrożenia związane z jego implementacją w swojej organizacji i stara się im zapobiegać. Drugą grupę stanowią przedsiębiorstwa, które jeszcze przed wdrożeniem konkretnego systemu przeprowadzają analizę ryzyka (26 proc. odpowiedzi). Znaczny odsetek (27 proc.) stanowią respondenci, którzy orientują się w ogólnych, typowych ryzykach związanych z AI, nie skupiając się na aspektach specyficznych dla swojej organizacji. Z kolei co dziesiąta firma (10 proc.) zarządza ryzykiem przy adaptacji narzędzi sztucznej inteligencji, stosując takie samo podejście, jak przy wdrożeniu każdego innego systemu IT – czytamy dalej.
Bądź na bieżąco z najważniejszymi informacjami subskrybując nasz codzienny newsletter 300Sekund! Obserwuj nas również w Wiadomościach Google.
Niedoinformowani pracownicy narażają na ataki
Najsłabszym ogniwem w procesie utrzymywania wysokiego poziomu cyberbezpieczeństwa są pracownicy – ich niewystarczający poziom wiedzy lub błędy najczęściej doprowadzają do narażenia firmy na ataki cybernetyczne. Aby temu przeciwdziałać, organizacje implementujące narzędzia AI zawczasu się zabezpieczają. Jednym z najpopularniejszych sposobów jest wprowadzenie rozwiązań proceduralnych (np. szkoleń dla pracowników), które wskazało 36 proc. respondentów.
Inną opcją jest zwiększenie liczby rozwiązań na poziomie narzędzi (31 proc. odpowiedzi), a co piąta firma (20 proc.) wdrożyła zarówno zabezpieczenia proceduralne, jak i narzędziowe, podsumowano.
Badanie „Jak polskie firmy wdrażają AI” zostało opracowane na zlecenie EY Polska przez Cube Research w okresie sierpień-wrzesień 2023 roku na próbie 501 dużych i średnich przedsiębiorstw działających w branżach produkcyjnej, usługowej i handlowej.
Polecamy także:
- Nowe wyzwania Google. Sztuczna inteligencja wprowadza w błąd
- Globalny sojusz ws. bezpieczeństwa AI. Sztuczna inteligencja zostanie uregulowana
- Sztuczna inteligencja zamknięta na klucz. USA zaostrza warunki eksportu technologii AI