Elon Musk, grupa ekspertów od AI oraz prezesi z tej branży podpisali list otwarty, w którym wzywają do sześciomiesięcznej przerwy w opracowywaniu sztucznej inteligencji potężniejszej niż uruchomiony właśnie GPT-4 OpenAI. Ostrzegają przed zagrożeniami dla ludzkości i społeczeństwa, podaje Reuters.
W liście zwrócono uwagę, że „potężne systemy sztucznej inteligencji powinny być opracowywane tylko wtedy, gdy mamy pewność, że ich efekty będą pozytywne, a ryzyko będzie możliwe do opanowania”.
Czytaj także: Każdy flirtuje z ChatGPT – ale nikt nie wie, jak to naprawdę działa
List wydany przez Future of Life Institute podpisało ponad tysiąc osób. Jedną z nich jest Elon Musk, założyciel Tesli, która używa sztucznej inteligencji w systemie autopilota. Sygnatariusze wyszczególnili polityczne i gospodarcze niebezpieczeństwa, które może wnieść ze sobą konkurencyjne dla ludzi AI, pisze Reuters.
Chcesz być na bieżąco? Subskrybuj 300Sekund, nasz codzienny newsletter!
Podkreślono możliwe komplikacje natury prawnej i etycznej oraz wezwano programistów do współpracy z organami decydującymi o zarządzaniu i systemie regulacji dotyczącymi sztucznej inteligencji. Rząd Wielkiej Brytanii przedstawił już propozycję „możliwych do dostosowania” ram regulacyjnych.
Polecamy:
- Napisze wiersz, namaluje obraz. Sztuczna inteligencja wkrada się na rynek pracy
- Roboty zastępują ludzi. Takie sytuacje znają już polscy pracownicy
- Sztuczna inteligencja w medycynie: zagrożenie czy szansa?