{"vars":{{"pageTitle":"Sztuczna inteligencja jeszcze nie zastąpi pracowników. UE chce okiełznać AI","pagePostType":"post","pagePostType2":"single-post","pageCategory":["news"],"pageAttributes":["ai","badanie","ey-polska","firmy","main","najnowsze","obsluga-klienta","praca","pracownicy","produkcja-przemyslowa","sztuczna-inteligencja","unia-europejska","zarzadzanie-ryzykiem"],"pagePostAuthor":"Dorota Mariańska","pagePostDate":"16 maja 2023","pagePostDateYear":"2023","pagePostDateMonth":"05","pagePostDateDay":"16","postCountOnPage":1,"postCountTotal":1,"postID":566277}} }
300Gospodarka.pl

Sztuczna inteligencja nie zastępuje jeszcze pracowników. UE chce okiełznać AI

W kwestiach pracowniczych polskie firmy pozostają jeszcze obojętne na wpływ sztucznej inteligencji – wynika z badania przeprowadzonego na zlecenie EY Polska. Jednocześnie UE pracuje nad rozporządzeniem ws. sztucznej inteligencji (AI Act) i dyrektywą w sprawie odpowiedzialności za AI.

Czy AI wpływa na plany pracownicze polskich firm? Odpowiedzi na to pytanie szukało EY Polska.

Pracownicy jeszcze bezpieczni

– Wzrost znaczenia AI chwilowo nie wpływa na działania w obszarze modeli operacyjnych. W efekcie aspekty takie jak skrócenie dziennego czasu pracy czy oddelegowanie powtarzanych zadań do wykonania przez sztuczną inteligencję to ciągle pieśń przyszłości. Na taki stan rzeczy mogą mieć wpływ bariery technologiczne, prawne lub organizacyjne – wskazują analitycy.

Redukcji zatrudnienia z związku z AI nie planuje 59 proc. firm. Taką możliwość bierze pod uwagę 13 proc. przedsiębiorstw. Tyle samo zamierza zwiększyć zatrudnienie.

Jak wynika z opracowania, na wyższe ryzyko zastąpienia przez narzędzia bazujące na sztucznej inteligencji narażone są osoby związane z branżą obsługi klienta (37 proc.) i produkcją przemysłową (32 proc.).

Odpowiedzialność za AI

Eksperci z EY przypominają jednocześnie, że już od 2018 r. UE pracuje nad uregulowaniem bezpiecznego i etycznego wykorzystywania sztucznej inteligencji oraz ustanowieniem zasad odpowiedzialności. Do tej pory przyjęto strategię AI, „białą księgę” dot. AI, a także rezolucję w sprawie odpowiedzialności cywilnej za AI. Obecnie trwają prace nad rozporządzeniem ws. sztucznej inteligencji (AI Act) i dyrektywą w sprawie odpowiedzialności za AI.

– Wiele kwestii, które mają zostać uregulowane w rozporządzeniu ws. AI będzie miało znaczący wpływ na firmy, które opracowują, importują, dystrybuują i wykorzystują systemy sztucznej inteligencji, zwłaszcza w zakresie zarządzania ryzykiem i danymi. Regulacje będą również określać rodzaje systemów AI, których wprowadzenie do obrotu i użytkowanie będzie zakazane. Zgodność rozwiązań AI z projektowanymi rozwiązaniami prawnymi może być kluczowa dla powodzenia całego procesu – tłumaczy Justyna Wilczyńska-Baraniak z Kancelarii EY Law.


Chcesz być na bieżąco? Subskrybuj 300Sekund, nasz codzienny newsletter!


Specjalistka podkreśla też, że podstawie przeprowadzonej oceny ryzyka trzeba wprowadzić szczególne środki bezpieczeństwa, aby systemy AI były przejrzyste, zrozumiałe, solidne, dokładne, bezpieczne i niedyskryminacyjne:

– Należy wprowadzić szczegółowe procedury, w tym dotyczące zarządzania ryzykiem i danymi oraz zapewnić odpowiedzialność, przejrzystość i nadzór ludzki. Co istotne, zarządzanie ryzykiem jest procesem ciągłym i wymaga regularnego monitorowania

Badanie „Wpływ AI na rynek pracy” zostało przeprowadzone w maju 2023 roku na zlecenie EY Polska przez ARC Rynek i Opinia.

Polecamy również: