Kalifornia może stać się pierwszym stanem w USA, który wprowadzi kompleksowe regulacje dotyczące największych modeli sztucznej inteligencji. Projekt ustawy, który ma na celu ograniczenie potencjalnych zagrożeń związanych z AI, przeszedł ważne głosowanie w kalifornijskim Zgromadzeniu Stanowym.
Propozycja zakłada, że firmy rozwijające duże modele AI będą musiały przeprowadzać testy swoich systemów i publicznie ujawniać protokoły bezpieczeństwa. Ma to zapobiec potencjalnym manipulacjom, które w przyszłości mogłyby prowadzić do poważnych zagrożeń, takich jak zakłócenia w sieci energetycznej czy pomoc w produkcji broni chemicznej.
O sprawie pisze The Associated Press. Ustawa ma objąć modele AI, których trenowanie wymaga danych o wartości ponad 100 milionów dolarów. Choć obecnie żaden model nie osiągnął jeszcze tego progu, eksperci przewidują, że może to nastąpić w niedalekiej przyszłości.
Projekt ustawy jest jednym z setek, nad którymi kalifornijski parlament głosuje w ostatnim tygodniu sesji. Jeśli zostanie przyjęty przez Senat, trafi na biurko gubernatora Gavina Newsoma, który będzie miał czas do końca września na podjęcie decyzji o podpisaniu, zawetowaniu lub pozwoleniu, by ustawa weszła w życie bez jego podpisu.
Zwolennicy i przeciwnicy
Zwolennicy ustawy argumentują, że wprowadzi ona niezbędne zasady bezpieczeństwa dla dużych modeli AI w Stanach Zjednoczonych.
– Nadszedł czas, aby Big Techy grały według jakichś zasad, niewielu, ale jednak. Ostatnią rzeczą, jakiej potrzebujemy, jest awaria sieci energetycznej czy systemów wodnych – mówi republikański członek Zgromadzenia Devon Mathis, którego cytujemy za The Associated Press.
Jednak propozycja spotkała się z silnym sprzeciwem ze strony firm venture capital i gigantów technologicznych, takich jak OpenAI, Google i Meta. Twierdzą oni, że regulacje dotyczące bezpieczeństwa powinny być ustanawiane na poziomie federalnym, a nie stanowym.
Kontrowersje wokół projektu
Krytycy, w tym grupa Chamber of Progress, argumentują, że ustawa opiera się na fantastycznych scenariuszach science fiction, a nie na rzeczywistych zagrożeniach. Todd O’Boyle, dyrektor ds. polityki technologicznej w tej organizacji, stwierdził, że „ustawa ma więcej wspólnego z Łowcą androidów lub Terminatorem niż z rzeczywistym światem”.
Nawet byli prominentni politycy, jak była przewodnicząca Izby Reprezentantów Nancy Pelosi, wyrazili swoje obawy, nazywając projekt „dobrze pomyślanym, ale źle poinformowanym”.
Szerszy kontekst regulacji AI
Projekt ustawy o regulacji dużych modeli AI jest jednym z dziesiątek projektów dotyczących sztucznej inteligencji, które kalifornijscy ustawodawcy zaproponowali w tym roku. Celem tych inicjatyw jest budowanie zaufania publicznego, walka z dyskryminacją algorytmiczną oraz zakazanie deepfake’ów związanych z wyborami lub pornografią.
Ustawodawcy stanowi starają się znaleźć równowagę między kontrolowaniem technologii i jej potencjalnych zagrożeń a unikaniem hamowania rozwoju kwitnącego przemysłu.
Jeśli ustawa zostanie przyjęta, może stać się wzorem dla innych stanów, a nawet regulacji na poziomie federalnym.
Polecamy także:
- Sztuczna inteligencja z polską duszą. Bielik AI, pierwszy krajowy model językowy, już dostępny
- Pracownicy biurowi tracą czas na powtarzalne czynności. Firmy coraz częściej sięgają po AI
- Warszawa wyróżniona w rankingu inteligentnych miast. Ale tylko w jednej kategorii
- Podatek od energii dla AI i kryptowalut? Ekonomiści MFW mają nowy pomysł jak zmniejszyć emisje CO2