{"vars":{{"pageTitle":"List otwarty o wstrzymanie rozwoju sztucznej inteligencji pod ostrzałem krytyki. „To niewykonalne”","pagePostType":"post","pagePostType2":"single-post","pageCategory":["news"],"pageAttributes":["ai","chatgpt","google","main","meta","najnowsze","openai","polski-instytut-ekonomiczny","sundar-pichai","sztuczna-inteligencja"],"pagePostAuthor":"Emilia Siedlaczek","pagePostDate":"8 kwietnia 2023","pagePostDateYear":"2023","pagePostDateMonth":"04","pagePostDateDay":"08","postCountOnPage":1,"postCountTotal":1,"postID":535826}} }
300Gospodarka.pl

List otwarty o wstrzymanie rozwoju sztucznej inteligencji pod ostrzałem krytyki. „To niewykonalne”

Moratorium na rozwój technologii sztucznej inteligencji jest zwyczajnie niewykonalne, uważa Sundar Pichai, prezes Google. Wtórują mu inni przedstawiciele branży. 

Chodzi o list otwarty, jaki wystosowali pod koniec marca niektórzy przedstawiciele sektora sztucznej inteligencji (SI). Wezwali oni do zaprzestania rozwoju systemów bardziej zaawansowanych niż Chat GPT-4 na co najmniej sześć miesięcy.

Pod listem podpisali się m.in. Elon Musk, Steve Wozniak (współtwórca Apple) czy Stuart Russell (badacz SI z Uniwersytetu w Berkeley). Podpis pod listem złożyło prawie 3000 osób.

Zdaniem autorów, półroczne moratorium jest niezbędne, aby eksperci mogli opracować protokoły bezpieczeństwa dla rozwijania zaawansowanych systemów SI. Autorzy argumentują, że rozwój SI powinien skupić się na ulepszaniu obecnych systemów pod kątem ich dokładności czy bezpieczeństwa.

Środowisko naukowców AI jest podzielone

Obawa wynika m.in. ze skokowego wzrostu złożoności modeli językowych. Dla zobrazowania: GPT-3 miał 175 mld parametrów, a GPT-4 ma ich aż 100 bln. To od liczby parametrów zależy umiejętność uczenia się przez model zależności między słowami.

Część badaczy, np. Eliezer Yudkowsky, pionier badań nad SI, nie zgadza się z postulatem. Yudkowsky opublikował odpowiedź, w której krytykuje autorów, gdyż ci powinni byli mocniej skupić się na zagrożeniu wynikającym z powstania sztucznej inteligencji znacząco przewyższającej ludzką.

Powstanie takiej superinteligencji – zdaniem badacza – może przyczynić się do zagłady ludzkości. Takie podejście oraz podejście autorów otwartego listu to tzw. criti-hype, czyli pozorna krytyka mająca tylko wyolbrzymić możliwości danej technologii.


Chcesz być na bieżąco? Subskrybuj 300Sekund, nasz codzienny newsletter!


Zgodnie z innym podejściem, prezentowanym np. przez Sundara Pichaia, CEO Google, moratorium na rozwój technologii jest zwyczajnie niewykonalne. Zdaniem Pichaia, nie można po prostu wysłać maila do inżynierów z prośbą, aby zaprzestali swojej pracy.

W podobnym tonie wypowiadał się były CEO Googla Eric Schmidt, który twierdzi, że najlepszym sposobem na ograniczenie zagrożeń SI jest udostępnienie kodu szerszej publiczności.

Albo zatrzymać, albo rozwijać do granic możliwości

Pomysł moratorium nieco zgryźliwie skomentował także główny naukowiec Mety – Yann LeCun. Zwrócił on uwagę, że podobnego zabiegu próbował kościół katolicki w 1440 r., gdy na sześć miesięcy chciał zablokować rozwój druku. Takie podejście z kolei sprzyja prywatyzacji wiedzy wytwarzanej w ramach otwartego dostępu do kodu.

Powyższe podejścia stwarzają fałszywą dychotomię, zgodnie z którą rozwój technologii należy albo całkowicie zatrzymać, albo bezgranicznie otworzyć. Tymczasem zagrożenia i ryzyka związane z rozwojem SI oraz jej wykorzystaniem są bardziej przyziemne.

Wyzwaniem są raczej uprzedzenia zawarte w bazach danych, na których uczą się algorytmy, próby scedowania odpowiedzialności z twórców na bezosobowe „systemy” czy brak możliwości odwołania się od decyzji algorytmicznych. Na tych problemach powinniśmy się skupić, zamiast tworzyć serie spekulatywnych zagrożeń rodem z filmów science-fiction.

Czytaj także: