Pionierzy sztucznej inteligencji i eksperci wzywają główne laboratoria pracujące nad AI do natychmiastowego wstrzymania kształcenia systemów potężniejszych niż GPT-4 na co najmniej sześć miesięcy.
List otwarty napisany przez Future of Life Institute ostrzega, że systemy AI z „inteligencją konkurencyjną dla człowieka” mogą stać się poważnym zagrożeniem dla ludzkości. Wśród zagrożeń wymienia się możliwość przechytrzenia ludzi przez sztuczną inteligencję, uczynienia nas zbędnymi i przejęcia kontroli nad cywilizacją.
Czytaj: AI może zagrozić ludzkości? Elon Musk i eksperci podpisali list otwarty
W liście podkreślono potrzebę opracowania kompleksowego zestawu procedur regulujących rozwój i wdrażanie AI. Stwierdza się w nim:
„Procedury te powinny gwarantować, że systemy je stosujące są bezpieczne ponad wszelką wątpliwość. Nie oznacza to wstrzymania rozwoju AI w ogóle, a jedynie wycofanie się z niebezpiecznego wyścigu, którego celem jest budowa coraz większych i bardziej nieprzewidywalnych modeli czarnych skrzynek z wyłaniającymi się wraz z nimi możliwościami.”
Zazwyczaj walka o regulacje stawiała rządy i duże firmy technologiczne po przeciwnej stronie barykady. Jednak ostatni list otwarty – jak dotąd podpisany przez ponad 5 tys. sygnatariuszy, w tym prezesa Twittera i Tesli Elona Muska, współzałożyciela Apple Steve’a Wozniaka i naukowca z OpenAI Yonasa Kassa – wydaje się sugerować, że coraz więcej podmiotów zajmuje w końcu jednolite stanowisko.
Czy naprawdę moglibyśmy wdrożyć uproszczone, globalne ramy regulacyjne dotyczące AI? A jeśli tak, to jak miałyby one wyglądać?
Jakie regulacje już istnieją?
W Australii rząd utworzył Krajowe Centrum ds. Sztucznej Inteligencji, aby pomóc w rozwoju narodowego ekosystemu AI i technologii cyfrowych. Pod tym parasolem znajduje się Responsible AI Network, która ma na celu promowanie odpowiedzialnych praktyk i scentralizowanie decyzji w zakresie przepisów i standardów.
Zobacz: Sztuczna inteligencja ma oko na klienta. Tak handlowcy wykorzystują SI do zwiększania sprzedaży
Obecnie nie ma jednak konkretnych regulacji dotyczących AI i algorytmicznego podejmowania decyzji. Rząd przyjął łagodne podejście, które szeroko opisuje koncepcję odpowiedzialnej AI, ale nie określa parametrów, które zapewnią jej realizację.
Podobnie Stany Zjednoczone przyjęły liberalną strategię. Ustawodawcy nie spieszą się z próbami uregulowania AI i polegają na istniejących przepisach dotyczących jej wykorzystania. Amerykańska Izba Handlowa wezwała niedawno do uregulowania kwestii AI, aby zapewnić, że nie zaszkodzi ona wzrostowi gospodarczemu lub nie stanie się zagrożeniem dla bezpieczeństwa narodowego, ale nie podjęto jeszcze żadnych działań.
Chcesz być na bieżąco? Subskrybuj 300Sekund, nasz codzienny newsletter!
Liderem w zakresie regulacji AI jest Unia Europejska, która przygotowuje się do stworzenia ustawy o sztucznej inteligencji. Ten proponowany akt prawny będzie definiował trzy kategorie ryzyka związane z AI:
- aplikacje i systemy, które stwarzają „niedopuszczalne ryzyko” będą zakazane, jak np. rządowy scoring społeczny używany w Chinach
- aplikacje uznane za obarczone „wysokim ryzykiem”, takie jak narzędzia do skanowania CV, które tworzą rankingi kandydatów do pracy, będą podlegały szczególnym wymogom prawnym, oraz
- wszystkie inne aplikacje pozostaną w dużej mierze nieuregulowane.
Chociaż niektóre środowiska twierdzą, że podejście UE zdusi innowacje, to Australia powinna je uważnie obserwować, ponieważ gwarantuje ono równowagę między zapewnieniem przewidywalności a dotrzymywaniem kroku w rozwoju AI.
Podejście Chin do AI skupiło się na ukierunkowaniu na konkretne zastosowania algorytmów i tworzeniu przepisów, które dotyczą ich wdrażania w określonych kontekstach, takich jak na przykład algorytmy generujące szkodliwe informacje. Chociaż taki kierunek zapewnia konkretne ramy, to istnieje ryzyko, że przepisy szybko pozostaną w tyle za gwałtownie rozwijającą się technologią.
Za i przeciw
Istnieje kilka argumentów zarówno za, jak i przeciw ostrożnemu podejściu do kontroli nad AI.
Z jednej strony AI jest chwalona za zdolność do generowania wszelkich rodzajów treści, wykonywania prozaicznych zadań czy wykrywania nowotworów. Z drugiej strony, może ona oszukiwać, utrwalać uprzedzenia, popełniać plagiaty i – oczywiście – sprawia, że niektórzy eksperci martwią się o wspólną przyszłość ludzkości. Nawet dyrektor techniczna OpenAI, Mira Murati, sugeruje, że powinno się podjąć działania w kierunku uregulowania AI.
Zobacz: Napisze wiersz, namaluje obraz. Sztuczna inteligencja wkrada się na rynek pracy
Niektórzy naukowcy twierdzą, że nadmierne regulacje mogą utrudnić pełne wykorzystanie potencjału AI i zakłócić „twórczą destrukcję” – teoria ta sugeruje, że utrwalone normy i praktyki muszą zostać odrzucone, aby innowacje mogły się rozwijać.
Podobnie, przez lata środowiska biznesowe naciskały na wprowadzenie regulacji, które byłyby elastyczne i ograniczone do konkretnych rozwiązań, tak aby nie utrudniały konkurencji. Stowarzyszenia branżowe wezwały do wprowadzenia „wskazówek” etycznych zamiast regulacji – argumentując, że rozwój AI jest zbyt szybki i swobodny, aby można go było odpowiednio uregulować.
Obywatele wydają się jednak opowiadać za większym nadzorem. Według badań Bristows i KPMG, blisko dwie trzecie Australijczyków i Brytyjczyków uważa, że branża AI powinna być regulowana i rozliczana.
Co dalej?
Sześciomiesięczna przerwa w rozwoju zaawansowanych systemów AI mogłaby stanowić mile widziane wytchnienie od wyścigu zbrojeń w dziedzinie sztucznej inteligencji, który wydaje się nie mieć końca. Jednak do tej pory nie podjęto skutecznych globalnych wysiłków na rzecz sensownego uregulowania kwestii AI. Próby podejmowane na całym świecie są fragmentaryczne, spóźnione i ogólnie rzecz biorąc prowadzone niedbale.
Analitykom już dziękujemy? „ChatGPT może być wykorzystany do napisania pracy z finansów”
Globalne moratorium byłoby trudne do wyegzekwowania, ale nie niemożliwe. W liście otwartym pojawiają się pytania o rolę rządów, które w dużej mierze milczą na temat potencjalnych szkód, jakie niosą ze sobą niezwykle sprawne narzędzia AI.
Jeśli cokolwiek ma się zmienić, rządy oraz krajowe i ponadnarodowe organy regulacyjne będą musiały przejąć inicjatywę w zapewnieniu odpowiedzialności i bezpieczeństwa. Jak argumentują autorzy listu, decyzje dotyczące AI na poziomie społecznym nie powinny znajdować się w rękach „niewybieralnych liderów technologicznych”.
Rządy powinny zatem zaangażować się wraz z przemysłem we wspólne opracowanie globalnych ram określających kompleksowe zasady rozwoju AI. Jest to najlepszy sposób na ochronę przed szkodliwymi skutkami i zapobieżenie równaniu w dół. Unika się również w ten sposób niepożądanej sytuacji, w której rządy i giganci technologiczni walczą o dominację nad przyszłością AI.
Tłumaczył: Tomasz Krzyżanowski
Tekst został opublikowany w The Conversation i zamieszczony tutaj na podstawie otwartej licencji (Creative Commons license). Przeczytaj oryginalny artykuł.