{"vars":{{"pageTitle":"Szczyt AI w Seulu. Giganci technologiczni za bezpieczną sztuczną inteligencją","pagePostType":"post","pagePostType2":"single-post","pageCategory":["news"],"pageAttributes":["ai","badania-nad-sztuczna-inteligencja","bezpieczenstwo-cyfrowe","najnowsze","nowe-technologie","rozwoj-ai","sztuczna-inteligencja"],"pagePostAuthor":"Filip Majewski","pagePostDate":"22 maja 2024","pagePostDateYear":"2024","pagePostDateMonth":"05","pagePostDateDay":"22","postCountOnPage":1,"postCountTotal":1,"postID":710318}} }
300Gospodarka.pl

Szczyt AI w Seulu. Giganci technologiczni za bezpieczną sztuczną inteligencją

Premier Wielkiej Brytanii, Rishi Sunak ogłosił, że pierwsze 16 firm zgodziło się przyjąć dobrowolne standardy bezpieczeństwa sztucznej inteligencji, wprowadzone podczas trwającego szczytu dot. AI w Seulu.

O sprawie informuje The Guardian. Wśród firm, które zgodziły się zaakceptować standardy bezpieczeństwa AI znajdują są m.in. Amazon, Google, IBM, Meta, Zhipu.ai i Technology Innovation Institute z Zjednoczonych Emiratów Arabskich. Zobowiązali się oni do współpracy w zakresie wymiany badań i technologii, inwestowania w cyberbezpieczeństwo oraz priorytetowego traktowania badań nad zagrożeniami dla społeczeństwa.


Czytaj także: Wydawcy kontra sztuczna inteligencja. Największe portale informacyjne masowo blokują boty AI


Premier Sunak podkreślił, że „zobowiązania zapewniają przejrzystość i odpowiedzialność w planach dotyczących rozwoju bezpiecznej AI, ustanawiając precedens dla globalnych standardów bezpieczeństwa AI”.

Realne kary za naruszenia

Standardy spotkały się też z krytyką za brak realnych kar za nieprzestrzeganie ustaleń. Fran Bennett, tymczasowa dyrektor Instytutu Ada Lovelace, ostrzega, że bez obowiązkowych regulacji firmy mogą ignorować te zasady.

Firmy określające, co jest bezpieczne, a co nie, to problematyczne zjawisko. Potrzeba regulacji i instytucji, które wyznaczą granice z perspektywy ludzi, a nie firm budujących te technologie – podkreśla Fran Bennett, cytowana przez Guardiana.

Dodatkową kontrowersję budzi brak przejrzystości dotyczącej danych szkoleniowych używanych do trenowania modeli AI. Mimo przyjęcia standardów bezpieczeństwa, firmy z branży nadal mogą ukrywać dane szkoleniowe, co stwarza ryzyko wynikające z tendencyjnych lub niekompletnych źródeł.

Michelle Donovan, brytyjska sekretarz technologii, twierdzi, że instytuty bezpieczeństwa AI, takie jak ten w Wielkiej Brytanii, mogą obecnie zbierać tak dużo danych i informacji, że prościej jest wykryć nieprawidłowości dot. bezpieczeństwa AI.

Instytut może przeanalizować model i sprawdzić, czy sam model może stanowić ryzyko – mówi Donovan, cytowana przez Guardiana.

Największe firmy się jednoczą

OpenAI, jeden z sygnatariuszy, uznał standardy za „ważny krok w kierunku promowania szerszego wdrażania praktyk bezpieczeństwa dla zaawansowanych systemów AI”.

Dziedzina bezpieczeństwa AI szybko ewoluuje i szczególnie cieszymy się z poparcia zobowiązań dotyczących doskonalenia podejść razem z nauką – podkreśla Anna Makanju, wiceprezeska ds. globalnych w OpenAI.


Bądź na bieżąco z najważniejszymi informacjami subskrybując nasz codzienny newsletter 300Sekund! Obserwuj nas również w Wiadomościach Google.


Znaczącym osiągnięciem jest obecność sygnatariuszy z Chin i ZEA, co zdaniem niektórych potwierdza dominację Wielkiej Brytanii w dziedzinie bezpieczeństwa AI. Premier Sunak współprzewodniczył zamkniętemu spotkaniu światowych i biznesowych liderów z prezydentem Korei Południowej, Yoon Suk Yeol.

Uczestnicy wydarzenia, w tym m.in Kamala Harris, Emmanuel Macron, Nick Clegg i Elon Musk, zgodzili się na dalszą współpracę w celu rozwoju bezpieczeństwa sztucznej inteligencji.

Polecamy także: