85 proc. Polaków używa AI w pracy nawet jeśli regulaminy oficjalnie na to nie pozwalają. W USA większość osób odpowiedzialnych za cyfrowe bezpieczeństwo nie zdefiniowała wskaźników ryzyka. Co gorsza, ponad połowa kierownictwa wyższego szczebla nie interesuje się tymi zagadnieniami.
Bardzo ciekawy obraz oswajania się ze sztuczną inteligencją (AI) rysuje się po analizie dwóch raportów dotyczących tego obszaru. Jeden wytyka błędy i niedociągnięcia firm na naszym własnym podwórku, drugi punktuje równie niebezpieczne zaniechania w Stanach Zjednoczonych, gdzie, wydawałoby się, AI jest w każdą stronę wielokrotnie obracana, jak pod lupą.
Z raportu “Gotowi na sztuczną inteligencję. Oczekiwania polskich konsumentów i firm” opracowanego przez PwC Polska, jasno wynika, że polscy konsumenci korzystają z AI w życiu codziennym i oczekują tego samego od firm. Rośnie lista branż, kategorii i usług, w których chcemy widzieć w szybkim działaniu AI – od wirtualnych przymierzalni aż po diagnostykę medyczną.
AI używana „po cichu”
PwC przepytało zarówno zwykłych konsumentów, jak i przedstawicieli biznesu, w tym pracowników, którzy oczekują od firm, że zaczną oferować rozwiązania AI, które ułatwią im życie. Ponad 55 proc. wskazało wsparcie przy wykonywaniu żmudnych zadań i procedur.
Tak bardzo chcemy sobie ułatwić pracę – żeby nie powiedzieć pójść na skróty – że sięgamy po AI nawet, gdy nie sięgnął po nią jeszcze formalnie nasz pracodawca.
„Mimo obaw o prywatność danych i potencjalne wycieki, ludzie chcą korzystać z GenAI w pracy, nawet jeśli firmowe regulaminy na to nie pozwalają. 85 proc. używa GenAI mimo braku oficjalnej akceptacji”, piszą analitycy PwC.
Może się wydawać, że to błaha sprawa, bo co komu szkodzi, że człowiek się wesprze programem do stworzenia grafiki, bardziej inteligentną wyszukiwarką, a najczęściej chatem do napisania czegoś „na szybko”. Warto jednak mieć tego świadomość, gdy np. zostawiamy swoje dane wrażliwe, bo korzystanie w pracy z niecertyfikowanych narzędzi może się skończyć choćby wyciekiem danych.
Do kradzieży danych albo wycieku informacji poufnych dochodzi nawet w firmach, które powszechnie uważane są za bezpieczne: sklepy W.Kruk, Ochnik, JSW, laboratoria Alab, sieć sex-shopów, sieć dealerów aut, a nawet wojewódzki funduszu ochrony środowiska w Poznaniu, to tylko kilka głośnych przykładów hackerskich ataków z ostatnich miesięcy.
Może trudno się dziwić. Z badania przeprowadzonego na zlecenie serwisu ChronPESEL.pl i Krajowego Rejestru Długów wynika bowiem, że aż 20 proc. przedsiębiorców z sektora MŚP wcale nie szkoli swoich pracowników z ochrony danych osobowych, a niemal 3/5 robi to tylko raz – po przyjęciu do pracy.
W dodatku pracownicy korzystają w firmie z dostępnych narzędzi, o których nie wie pracodawca, mimo że aż 69 proc. z nich twierdzi, że organizacja nie zatrudnia wystarczającej liczby ekspertów z dziedziny AI. Czytaj: w razie problemów być może nie miałby kto zareagować, naprawić, pomóc.
„Same dane i technologia nie wystarczą – sukces w sztucznej inteligencji da dopiero odpowiednie połączenie zasobów ludzkich, technologii i strategii”, konkludują autorzy raportu PwC. AI przypilnuje, jeśli człowiek przypilnuje AI.
W epoce, gdy użytkownicy bardzo często proszą chat o pomoc i choćby wyrywkowo nie weryfikują prawdziwości udzielonej odpowiedzi, niezmiernie ważne jest jasne określenie odpowiedzialności za AI. Dziś AI jako pole ryzyka dostrzega tylko 39 proc. badanych.
Uzasadnione obawy
Firmy chciałyby zarabiać i oszczędzać na AI, ale zapominają, że żadne narzędzie nie wdroży się samo. Według PwC, prawie 70 proc. organizacji nie przeprowadziło analizy kompetencji pracowników zaangażowanych w rozwój sztucznej inteligencji. Jedynie 40 proc. w sektorze retail oraz finansowym przeprowadziło lub zaplanowało szkolenia dotyczące bezpiecznego korzystania z AI.
Zdefiniowaną strategię AI ma – lub nad nią pracuje – dopiero 55 proc. organizacji w Polsce, czyli prawie połowa wciąż co najwyżej myśli o AI, ale jeszcze nie myśli jak to AI zaprzęgnąć do roboty. Wiele zapewne dlatego, że nowe technologie onieśmielają, a że o specjalistów od AI jest niełatwo – wolą, jak Scarlet O’Hara w „Przeminęło z wiatrem”, pomyśleć o tym jutro.
Wśród najczęściej identyfikowanych ryzyk związanych z wykorzystaniem sztucznej inteligencji przedsiębiorstwa wskazują wyciek danych poufnych (57 proc.), brak jasnej odpowiedzialności za wyniki AI (39 proc.), cyberbezpieczeństwo (35 proc.), naruszenie praw własności intelektualnej (31 proc.). Firmy przyznają, że boją się o prywatność danych.
A jednak tylko 44 proc. badanych podmiotów regularnie (co najmniej raz w roku) przeprowadza analizę obowiązujących przepisów lub standardów rynkowych w dziedzinie AI. Aż 37 proc. organizacji nie przeprowadza takich analiz i tylko 26 proc. przedsiębiorstw posiada wdrożone wymagania, które powinien spełniać system AI stosowany w organizacji.
Być może wynika to z problemów kadrowych? Aż 69 proc. ankietowanych przedsiębiorstw ma problem z rekrutacją ekspertów.
Ze sztucznej inteligencji korzystają wszystkie grupy konsumentów. Nawet wśród najstarszej grupy respondentów, 56 proc. słyszało o GenAI. Żadna nowa technologia nie zdobywała popularności tak szybko. I żadna od czasów maszyny parowej nie wzbudzała też chyba tylu obaw. Ludzie najczęściej obawiają się braku kontroli nad AI – aż 75 proc. respondentów uważa, że AI może spowodować wykluczenie społeczne, a 80 proc., że przyczyni się do dezinformacji.
Macaj się
Narzędzia AI mogą być w takim samym stopniu użyteczne, co niebezpieczne, a wszystko zależy od tego, jak się ich używa. Używanie nieautoryzowanych narzędzi może być dla firmy groźne. Zwłaszcza, że bardzo wiele firm nie kontroluje wewnętrznych systemów zabezpieczeń cybernetycznych. Okazuje się, że problem cyberbezpieczeństwa stanowi takie samo wyzwanie dla firm polskich, na raczkującym rynku AI, co dla amerykańskich działających w kolebce nowoczesnych technologii.
Jak podają autorzy raportu: „State of Enterprise Cyber Risk in the Age of AI 2024” przygotowany po przebadaniu 632 amerykańskich specjalistów ds. cyberbezpieczeństwa, co dziesiąta firma w USA nigdy nie przeprowadziła audytu swoich systemów, a połowa sprawdza zabezpieczenia raz w tygodniu lub rzadziej.
„Najbardziej uderza fakt, że 65 proc. firm działa na podstawie przestarzałych, co najmniej dwuletnich planów”, piszą autorzy raportu w komentarzu.
Gdyby chcieć zobrazować, jak ważna jest konieczność regularnego kontrolowania działań wokół AI w firmie warto wykorzystać dziedzinę, która jest nam znacznie bardziej bliska – zdrowie. Należałoby zalecić to, co zaleca się kobietom w profilaktyce nowotworowej: macaj się. Bo inwestycje w nowoczesne technologie, jak sztuczna inteligencja, czy systemy pozwalające na szybkie wychwytywanie anomalii muszą być objęte wewnętrzną kontrolą.
– Aby nie dochodziło do naruszeń danych lub niewłaściwego wykorzystania tych narzędzi, równolegle z technologią należy wprowadzić w organizacji zasady dobrych praktyk związanych z AI – zauważa Paweł Kulpa z Safesqr, firmy specjalizującej się w cyberbezpieczeństwie.
Nie wiem, nie znam się, zarobiony jestem
Bierność firm w kwestiach związanych z cyberbezpieczeństwem to tykająca bomba, ostrzegają badacze rynku USA. Brak reakcji na nowe zagrożenia może kosztować nie tylko utratę danych, ale także reputacji i dużych pieniędzy.
„Firmy jeszcze nie zostawiają otwartych drzwi dla cyberkryminalistów, ale z pewnością nie zamykają ich na dostatecznie solidny zamek”, komentują autorzy raportu.
Największe ryzyko dla cyfrowego bezpieczeństwa organizacji stanowią, ich zdaniem, niezaktualizowane systemy i oprogramowanie. Porażająca większość osób odpowiedzialnych za cyfrowe bezpieczeństwo w badanych organizacjach (aż 87 proc.) nie zdefiniowała wskaźników ryzyka cybernetycznego, a ponad połowa kierownictwa wyższego szczebla nie interesuje się zagadnieniem cyberbezpieczeństwa swojej organizacji.
To nie znaczy, że zespoły ds. bezpieczeństwa nie widzą i nie doceniają zagrożeń. Przeciwnie – coraz częściej postrzegają AI jako źródło nowych zagrożeń. 47 proc. respondentów wyraża obawy dotyczące luk w zabezpieczeniach spowodowanych niskiej jakości kodem, generowanym właśnie przez sztuczną inteligencję. Ale pomimo tych obaw, tylko połowa respondentów przeprowadza regularne szkolenia i programy uświadamiające na temat implikacji sztucznej inteligencji dla bezpieczeństwa. 29 proc. ankietowanych zauważa, że raportowanie w ich firmach jest zbyt skomplikowane, a przygotowywanie raportów zajmuje za dużo czasu. Rozwiązaniem powinno być uproszczenie raportowania, ale także zwiększenie znaczenia obszaru cyfrowego bezpieczeństwa w całej organizacji.
Na rynku zaczynają się pojawiać produkty i usługi, które mają wspomóc przedsiębiorców w adaptacji narzędzi AI. Obowiązki – pod groźbami kar w przypadku niedostosowania się – nakładają natomiast na firmy nowe regulacje, takie jak rozporządzenie NIS2, wprowadzone przez Unię Europejską, czy też aktualizacje RODO w kontekście bezpieczeństwa danych.
O tym, jak się rozwija sztuczna inteligencja:
- Rząd szykuje regulacje dla AI w Polsce. Chodzi o jej zastosowanie w trzech strategicznych sektorach
- Powstanie nowy instytut do rozwoju AI. Mają z nim współpracować uczelnie i trzy ministerstwa
- Branża, która rozwija AI boi się skutków tej rewolucji. Specjaliści IT też martwią się o pracę
- Polska innowacyjność nie rośnie. W rankingu wyprzedza nas 25 europejskich krajów
- Sztuczna inteligencja w pracy to wciąż nowość. Ale są zawody, które już z niej korzystają
- Wpływ AI na rozwój gospodarki. To etap wielkich zmian czy wciąż tylko testowanie nowych rozwiązań? [DEBATA 300GOSPODARKI]