{"vars":{{"pageTitle":"Uwaga na AI w firmie. Polscy przedsiębiorcy zwracają uwagę na bezpieczeństwo","pagePostType":"post","pagePostType2":"single-post","pageCategory":["news"],"pageAttributes":["ai","badania-nad-sztuczna-inteligencja","cyberbezpieczenstwo","cyberzagrozenia","firmy","male-i-srednie-przedsiebiorstwa","najnowsze","sztuczna-inteligencja"],"pagePostAuthor":"Filip Majewski","pagePostDate":"14 grudnia 2023","pagePostDateYear":"2023","pagePostDateMonth":"12","pagePostDateDay":"14","postCountOnPage":1,"postCountTotal":1,"postID":643171}} }
300Gospodarka.pl

Uwaga na AI w firmie. Polscy przedsiębiorcy zwracają uwagę na bezpieczeństwo

Aspekt cyberbezpieczeństwa przy wdrażaniu sztucznej inteligencji analizuje 92 proc. firm w Polsce, przy czym 37 proc. z nich bierze pod uwagę ten obszar tylko w ograniczonym stopniu, wynika z badania EY Polska „Jak polskie firmy wdrażają AI”.

Stosowanie rozwiązań opartych na AI w wielu firmach staje się już normą i szansą na istotne zwiększenie efektywności swoich działań. Jednak jak każda technologia, również i ta niesie ze sobą zarówno szanse, jak i zagrożenia, na czele z wirtualnymi ryzykami.

Wyniki badania EY wskazują, że dla rodzimych przedsiębiorców kwestie dotyczące cyberbezpieczeństwa przy implementacji narzędzi AI są istotne. Ponad połowa z nich (55 proc.) rozważa ten aspekt, a kolejne 37 proc. bierze go pod uwagę w ograniczonym zakresie. 3 proc. respondentów zupełnie ignoruje ten temat, podano.


Czytaj także: Co trzecia firma zwolniła już kogoś przez AI. Sztuczna inteligencja rozpycha się na rynku pracy


Firmy deklarują analizę zagrożeń użycia AI

Wraz ze wzrostem zastosowań sztucznej inteligencji pojawiają się nowe zagrożenia, które wymagają ochrony sieci i systemów informatycznych przed atakami. Firmy w Polsce deklarują, że analizują potencjalne ryzyka, jednak praktyka w wielu przypadkach wygląda mniej optymistycznie. AI jest postrzegana głównie jako technologiczna nowość i kojarzona z takimi rozwiązaniami jak chatboty. Tymczasem to zupełnie nowy obszar ryzyka, a wiele przedsiębiorstw nie jest przygotowanych na cybernetyczne zagrożenia – powiedział partner EY, lider Zespołu Cyberbezpieczeństwa w regionie EMEIA Piotr Ciepiela, cytowany w komunikacie.

Zaliczymy do nich ataki z wykorzystaniem spersonalizowanych wiadomości phishingowych, próby wyłudzeń z użyciem komunikatów zawierających nagranie głosowe łudząco podobne do głosu znanych nam osób czy też łatwiejsze pisanie kodów przez hakerów chcących znaleźć luki w oprogramowaniu. Efektem coraz swobodniejszego i niebezpiecznego wykorzystania narzędzi AI jest coraz rosnący problem z wyciekiem wrażliwych danych – podkreśla Ciepiela.

Ważnym typem działań w zakresie cyberbezpieczeństwa jest wprowadzenie odpowiednich procedur dotyczących używania systemów AI. Z badania EY wynika, że najwięcej respondentów (40 proc.) wdrożyło politykę korzystania zarówno z wewnętrznych, jak i ogólnodostępnych narzędzi AI np. chatbotów. Pod kontrolą 26 proc. firm znajduje się używanie wyłącznie zewnętrznych systemów, a 30 proc. dopiero zastanawia się nad przyjęciem jakichkolwiek zasad, podkreślono.

Respondenci mają świadomość zagrożeń, dlatego chatboty coraz częściej stają się przedmiotem regulacji w wielu firmach. Niemal połowa (47 proc.) dopuszcza możliwość korzystania z nich w określonych przypadkach, zaś 15 proc. pozwala na to tylko w celach służbowych. Co czwarta organizacja (24 proc.) nie wprowadziła jeszcze żadnych polityk w tym obszarze, ale analizuje taką możliwość.

– Firmy w Polsce stosują różne podejścia do zarządzania ryzykiem związanym z wdrożeniem systemu AI. Niemal co trzeci ankietowany (31 proc.) zidentyfikował najważniejsze zagrożenia związane z jego implementacją w swojej organizacji i stara się im zapobiegać. Drugą grupę stanowią przedsiębiorstwa, które jeszcze przed wdrożeniem konkretnego systemu przeprowadzają analizę ryzyka (26 proc. odpowiedzi). Znaczny odsetek (27 proc.) stanowią respondenci, którzy orientują się w ogólnych, typowych ryzykach związanych z AI, nie skupiając się na aspektach specyficznych dla swojej organizacji. Z kolei co dziesiąta firma (10 proc.) zarządza ryzykiem przy adaptacji narzędzi sztucznej inteligencji, stosując takie samo podejście, jak przy wdrożeniu każdego innego systemu IT – czytamy dalej.


Bądź na bieżąco z najważniejszymi informacjami subskrybując nasz codzienny newsletter 300Sekund! Obserwuj nas również w Wiadomościach Google.


Niedoinformowani pracownicy narażają na ataki

Najsłabszym ogniwem w procesie utrzymywania wysokiego poziomu cyberbezpieczeństwa są pracownicy – ich niewystarczający poziom wiedzy lub błędy najczęściej doprowadzają do narażenia firmy na ataki cybernetyczne. Aby temu przeciwdziałać, organizacje implementujące narzędzia AI zawczasu się zabezpieczają. Jednym z najpopularniejszych sposobów jest wprowadzenie rozwiązań proceduralnych (np. szkoleń dla pracowników), które wskazało 36 proc. respondentów.

Inną opcją jest zwiększenie liczby rozwiązań na poziomie narzędzi (31 proc. odpowiedzi), a co piąta firma (20 proc.) wdrożyła zarówno zabezpieczenia proceduralne, jak i narzędziowe, podsumowano.

Badanie „Jak polskie firmy wdrażają AI” zostało opracowane na zlecenie EY Polska przez Cube Research w okresie sierpień-wrzesień 2023 roku na próbie 501 dużych i średnich przedsiębiorstw działających w branżach produkcyjnej, usługowej i handlowej.

Polecamy także: