Coraz większa popularność AI w przedsiębiorstwach zdaje się przyćmiewać niedoskonałości z nią związane. Ponad 50 proc. badanych firm wyraziło zaniepokojenie skalą błędów, jaką popełnia sztuczna inteligencja. Z kolei 81 proc. przedsiębiorców widzi potrzebę większej regulacji AI w biznesie. Sztuczna inteligencja potrafi niestety uczyć się ludzkich błędów.
Wnioski te wynikają z badania DataRobot, o którego wynikach informuje Polski Instytut Ekonomiczny. Błędy w funkcjonowaniu algorytmów SI mogą mieć różne źródła. Po pierwsze, mogą wynikać z technicznych nieprawidłowości, błędów ludzkich lub nawet uprzedzeń instytucjonalnych. Dotychczas uważano, że główne przyczyny błędów leżą w danych treningowych, na których są one oparte.
Jednakże, odkryto, że algorytmy mogą również – po drugie – utrwalać błędy poznawcze ludzi, na których bazują, powielając je w swoim działaniu. Ponadto, algorytmy często kierują się bieżącymi preferencjami użytkowników, ignorując długoterminowe cele. To prowadzi do sytuacji, w których użytkownicy wybierają rozwiązania dające natychmiastowy efekt kosztem tych długofalowych.
Badania DataRobot przeprowadzone wśród liderów firm technologicznych w USA wykazują rosnące zaniepokojenie związane z działaniem algorytmów AI. Co drugi z nich (54 proc.) obawia się liczby błędów, którą sztuczna inteligencja jest łatwo w stanie powielać. Większość respondentów (81 proc.) dostrzega potrzebę większej regulacji w tym obszarze.
Bądź na bieżąco z najważniejszymi informacjami subskrybując nasz codzienny newsletter 300Sekund! Obserwuj nas również w Wiadomościach Google.
Dane nie mogą być przestarzałe
Struktura firm tworzących algorytmy AI ma również istotny wpływ na ich działanie. Decyzje dotyczące danych treningowych, metod analizy i przygotowania danych oraz konkretnych zastosowań algorytmów zależą od wewnętrznych procesów biznesowych firm.
Jeśli dane te są przestarzałe lub niereprezentatywne (np. ze względu na wiek lub narodowość), to AI, która ma za zadanie wspierać ludzi w procesie podejmowania decyzji, może na przykład zawyżać prawdopodobieństwo popełnienia przestępstwa przez osoby należące do mniejszości, w efekcie je dyskryminując.
Algorytm szkolony na podstawie danych wygenerowanych w wyniku takich decyzji może powielać błędy poznawcze (propagation error). Przykładem jest algorytm rekrutacyjny dużej firmy IT szkolony na podstawie wcześniejszych decyzji rekrutacyjnych jej pracowników, który powielił uprzedzenia płciowe obecne w decyzjach rekrutacyjnych podejmowanych przez ludzi, podaje PIE.