Premier Wielkiej Brytanii, Rishi Sunak ogłosił, że pierwsze 16 firm zgodziło się przyjąć dobrowolne standardy bezpieczeństwa sztucznej inteligencji, wprowadzone podczas trwającego szczytu dot. AI w Seulu.
O sprawie informuje The Guardian. Wśród firm, które zgodziły się zaakceptować standardy bezpieczeństwa AI znajdują są m.in. Amazon, Google, IBM, Meta, Zhipu.ai i Technology Innovation Institute z Zjednoczonych Emiratów Arabskich. Zobowiązali się oni do współpracy w zakresie wymiany badań i technologii, inwestowania w cyberbezpieczeństwo oraz priorytetowego traktowania badań nad zagrożeniami dla społeczeństwa.
Czytaj także: Wydawcy kontra sztuczna inteligencja. Największe portale informacyjne masowo blokują boty AI
Premier Sunak podkreślił, że „zobowiązania zapewniają przejrzystość i odpowiedzialność w planach dotyczących rozwoju bezpiecznej AI, ustanawiając precedens dla globalnych standardów bezpieczeństwa AI”.
Realne kary za naruszenia
Standardy spotkały się też z krytyką za brak realnych kar za nieprzestrzeganie ustaleń. Fran Bennett, tymczasowa dyrektor Instytutu Ada Lovelace, ostrzega, że bez obowiązkowych regulacji firmy mogą ignorować te zasady.
– Firmy określające, co jest bezpieczne, a co nie, to problematyczne zjawisko. Potrzeba regulacji i instytucji, które wyznaczą granice z perspektywy ludzi, a nie firm budujących te technologie – podkreśla Fran Bennett, cytowana przez Guardiana.
Dodatkową kontrowersję budzi brak przejrzystości dotyczącej danych szkoleniowych używanych do trenowania modeli AI. Mimo przyjęcia standardów bezpieczeństwa, firmy z branży nadal mogą ukrywać dane szkoleniowe, co stwarza ryzyko wynikające z tendencyjnych lub niekompletnych źródeł.
Michelle Donovan, brytyjska sekretarz technologii, twierdzi, że instytuty bezpieczeństwa AI, takie jak ten w Wielkiej Brytanii, mogą obecnie zbierać tak dużo danych i informacji, że prościej jest wykryć nieprawidłowości dot. bezpieczeństwa AI.
– Instytut może przeanalizować model i sprawdzić, czy sam model może stanowić ryzyko – mówi Donovan, cytowana przez Guardiana.
Największe firmy się jednoczą
OpenAI, jeden z sygnatariuszy, uznał standardy za „ważny krok w kierunku promowania szerszego wdrażania praktyk bezpieczeństwa dla zaawansowanych systemów AI”.
– Dziedzina bezpieczeństwa AI szybko ewoluuje i szczególnie cieszymy się z poparcia zobowiązań dotyczących doskonalenia podejść razem z nauką – podkreśla Anna Makanju, wiceprezeska ds. globalnych w OpenAI.
Bądź na bieżąco z najważniejszymi informacjami subskrybując nasz codzienny newsletter 300Sekund! Obserwuj nas również w Wiadomościach Google.
Znaczącym osiągnięciem jest obecność sygnatariuszy z Chin i ZEA, co zdaniem niektórych potwierdza dominację Wielkiej Brytanii w dziedzinie bezpieczeństwa AI. Premier Sunak współprzewodniczył zamkniętemu spotkaniu światowych i biznesowych liderów z prezydentem Korei Południowej, Yoon Suk Yeol.
Uczestnicy wydarzenia, w tym m.in Kamala Harris, Emmanuel Macron, Nick Clegg i Elon Musk, zgodzili się na dalszą współpracę w celu rozwoju bezpieczeństwa sztucznej inteligencji.
Polecamy także:
- UNESCO: Sztuczna inteligencja stygmatyzuje kobiety. Pań jest w branży IT za mało
- Sztuczna inteligencja jak ludzki mózg. Uczy się podczas snu, zapamiętując treści
- Sztuczna inteligencja może pogłębić kryzys klimatyczny. Jest bardzo energochłonna