Prawie 14-krotnie wzrosła na świecie liczba incydentów związanych ze sztuczną inteligencją w 2023 roku, w relacji do 2022 roku. Sfałszowane i zmanipulowane treści stanowią obecnie jedno z najpoważniejszych zagrożeń dla świata i dla procesu demokratycznego.
Dokładnie w 2023 roku doszło do 5123 incydentów związanych z użyciem SI, czyli 373 razy więcej niż rok wcześniej. W samym styczniu OECD AI Incidents Monitor zanotował 3412 incydentów.
Polska jest relatywnie mało zagrożona incydentami sztucznej inteligencji. Do tej pory odnotowano ich raptem 11 w ciągu ostatnich 8 lat. Może to być niedoszacowana liczba z powodu ograniczenia źródeł, na które się powołuje OECD, chodzi głównie o publikacje anglojęzyczne.
Incydent to zdarzenie, które narusza prawa człowieka lub inne związane z jego pracą, które prowadzi do uszczerbku na zdrowiu lub zakłóca infrastrukturę krytyczną.
O skali incydentów w ostatnim roku pisze, Polski Instytut Ekonomiczny w najnowszym Tygodniku Gospodarczym.
Największe zagrożenie
Według raportu World Economic Forum (WEF) zmanipulowane i sfałszowane treści internetowe stanowią największe krótkoterminowe zagrożenie dla świata. WEF podkreśla, że szkodliwe informacje w sieci mogą zakłócić procesy demokratyczne. Szczególnie w kontekście odbywających się na niespotykaną skalę wyborów w 2024 roku, w których weźmie udział prawie 3 mld wyborców incydenty AI stanowią duże wyzwanie dla ich przebiegu.
Do największych zagrożeń należą tzw. deepfake czyli zmanipulowane obrazy lub dźwięki, z pozoru wyglądające na autentyczne. Do takiego zdarzenia doszło w 2022 roku przed udziałem w wyborach polityczki Cary Hunter, której postać została wykorzystana w filmie pornograficznym. Fałszywe obrazy były już tworzone w przypadku Papieża Franciszka czy Joe Bidena.
Bądź na bieżąco z najważniejszymi informacjami subskrybując nasz codzienny newsletter 300Sekund! Obserwuj nas również w Wiadomościach Google.
W UE pojawiły się pierwsze na świecie regulacje związane z ograniczeniem ryzyka związanego z wykorzystaniem sztucznej inteligencji. Pod koniec maja rada UE przyjęła regulację dzielące technologię na cztery kategorie oceniające ich ryzyko jako: wysokie, średnie, minimalne lub systemy nieakceptowalne. Te ostatnie będą zakazane w UE.
Walkę z dezinformacją podjęły także portale społecznościowe poprzez wprowadzenia narzędzi, które ułatwią identyfikację obrazów i filmów wygenerowanych przez SI.
Jest to jednak kropla w morzu potrzeb, ponieważ ze względu coraz większą dostępność narzędzi wykorzystujących modele sztucznej inteligencji liczba niebezpiecznych incydentów będzie rosnąć.
Polecamy:
- Sztuczna inteligencja na ratunek samotności. Są naukowcy, którzy tak rysują przyszłość relacji
- Szczyt AI w Seulu. Giganci technologiczni za bezpieczną sztuczną inteligencją
- UNESCO: Sztuczna inteligencja stygmatyzuje kobiety. Pań jest w branży IT za mało