Nie mam wątpliwości, że sztuczna inteligencja powinna zostać uregulowana. Pytanie jednak brzmi: jak to zrobić” – powiedział Sundar Pichai, szef firm Google i Alphabet w swoim przemówieniu w Brukseli dotyczącym rozwoju sztucznej inteligencji.

Pichai podkreślił ogromne znaczenie, jakie w przyszłości dla ludzkości mogą mieć technologie oparte o działanie sztucznej inteligencji (SI).

Wśród potencjalnych zastosowań SI szef Google’a wymienił m.in. wsparcie lekarzy w zwiększeniu skuteczności wykrywania nowotworów piersi podczas badań mammograficznych, wykorzystanie technologii chmurowych do ograniczenia opóźnień rejsów samolotów pasażerskich oraz zwiększenie szybkości i dokładności procesu prognozowania pogody.

Z drugiej strony doświadczenia związane z implementacją przełomowych technologii w przeszłości, zdaniem Pichaia, powinny uczyć nas ostrożności. Istnieje bowiem także wiele negatywnych, a nawet niebezpiecznych potencjalnych zastosowań SI.

Wynalezienie technologii wewnętrznego spalania umożliwiło ludziom przemieszczanie się w łatwy i szybki sposób poza najbliższą okolicę miejsca zamieszkania, ale doprowadziło także do zwiększenia liczby śmiertelnych wypadków. Z kolei Internet pozwolił ludziom na błyskawiczne pozyskiwanie informacji oraz umożliwił natychmiastowy kontakt w skali globalnej. Z drugiej jednak strony technologia ta pozwoliła także na rozprzestrzenianie dezinformacji” – powiedział Pichai.

Nic nie wskazuje na to, by w przypadku sztucznej inteligencji miałoby nam się udać uniknąć podobnego scenariusza.

Już dziś, zanim jeszcze ta technologia na dobre stała się obecna w codziennym życiu każdego z nas, pojawiają się bardzo poważne wątpliwości dotyczące niektórych metod jej zastosowania.

Szczególny niepokój budzą systemy sztucznej inteligencji zaprojektowane do rozpoznawania ludzkich twarzy oraz tzw. „deep fakes”, czyli materiały wideo, które zostały tak zmanipulowane przy pomocy SI, że trudno określić ich autentyczność. Przy ich pomocy możliwe jest fabrykowanie udziału określonych osób w nagranych filmach.

Działanie „deep fakes” dobrze obrazuje materiał, który opublikowano na kanale konferencji TED w serwisie YouTube:

Według szefa amerykańskiego giganta technologicznego konieczne jest, aby firmy, które działają na rzecz rozwoju technologii SI robiły to w sposób odpowiedzialny i w oparciu o ściśle wytyczone zasady.

Jak podkreślił, Google działa już od 2018 w oparciu o wewnętrzne przepisy dotyczące etyki wykorzystywania technologii opartych o działanie sztucznej inteligencji.

Jednak oprócz samych przedsiębiorstw podejmujących konkretne wysiłki, także rządy państw mają bardzo ważną rolę do odegrania. Nie mam wątpliwości, że sztuczna inteligencja powinna zostać uregulowana. Pytanie brzmi: jak to zrobić?” – powiedział Pichai.

Zdaniem Pichaia kluczową kwestią jest to, aby nowe regulacje wyznaczały ogólne zasady postępowania przedsiębiorstw i stwarzały przy tym możliwość doprecyzowania i dostosowania legislacji do potrzeb określonych sektorów.

W opinii szefa Google’a dobrą podstawą, na której zbudowane mogłyby być regulacje dotyczące przynajmniej niektórych obszarów działania SI, jest obowiązujące obecnie prawo dotyczące urządzeń medycznych, takich jak wspomagane przez sztuczną inteligencję monitory pracy serca.

Czytaj także:

>>> Finlandia udostępni wszystkim obywatelom UE darmowy kurs ze sztucznej inteligencji

>>> Chatboty potrafią przetwarzać język, ale wciąż go nie rozumieją