W klasycznej powieści sci-fi Dana Simmonsa „Hyperion” z 1989 roku, jej bohaterowie są na stałe podłączeni do sieci sztucznej inteligencji znanej jako „Datasphere”, która przekazuje informacje bezpośrednio do ich mózgów. Podczas gdy wiedza jest dostępna natychmiast, zostaje utracona zdolność do samodzielnego myślenia.
Ponad 30 lat po opublikowaniu powieści Simonsa, coraz większy wpływ sztucznej inteligencji na nasze zdolności intelektualne można rozpatrywać w podobnych kategoriach. Aby złagodzić to ryzyko, proponuję rozwiązanie, które może pogodzić zarówno postęp AI, jak i potrzebę poszanowania i zachowania naszych zdolności poznawczych.
Czytaj także: Cyfrowy postkolonializm. Tak się wykorzystuje tanią siłę roboczą w sektorze AI
Korzyści płynące ze sztucznej inteligencji są szeroko zakrojone i dobrze nagłośnione. Wśród nich znajduje się potencjał technologii do promowania sprawiedliwości społecznej, zwalczania systemowego rasizmu, skuteczniejszego wykrywania raka, łagodzenia kryzysu środowiskowego i zwiększania produktywności.
Na pierwszy plan wysuwają się jednak również ciemniejsze aspekty sztucznej inteligencji, w tym uprzedzenia rasowe, jej zdolność do pogłębiania różnic społeczno-ekonomicznych oraz manipulowania naszymi emocjami i zachowaniem.
Podręcznik do zasad AI?
Pomimo rosnącego ryzyka, nadal nie ma wiążących krajowych lub międzynarodowych przepisów, regulujących sztuczną inteligencję. Dlatego też wniosek Komisji Europejskiej, dotyczący rozporządzenia w sprawie AI, jest tak istotny.
Proponowana przez KE ustawa o sztucznej inteligencji, której najnowszy projekt został zatwierdzony przez dwie komisje Parlamentu Europejskiego, analizuje potencjalne zagrożenia związane z wykorzystaniem tej technologii. I klasyfikuje je według trzech kategorii: „niedopuszczalne”, „wysokie” i „inne”. W pierwszej kategorii, praktyki AI, które byłyby zabronione, to te, które:
– Manipulują zachowaniem człowieka w sposób, który powoduje u niego szkodę fizyczną lub psychiczną.
– Wykorzystują słabości określonej grupy ludzi (np. ze względu na wiek, niepełnosprawność), tak, aby sztuczna inteligencja zniekształcała zachowanie tych osób i mogła wyrządzić im szkodę.
– Oceniają i klasyfikują ludzi (np. punktacja społeczna).
– Stosują rozpoznawania twarzy w przestrzeni publicznej w celu egzekwowania prawa, z wyjątkiem szczególnych przypadków (np. ataków terrorystycznych).
Wraz z moją koleżanką Caitlin Mulholland wykazaliśmy potrzebę wprowadzenia silniejszych regulacji dotyczących sztucznej inteligencji i rozpoznawania twarzy w celu ochrony podstawowych praw człowieka, takich jak prawo do prywatności.
To szczególnie ważne w odniesieniu do ostatnich osiągnięć w zakresie sztucznej inteligencji, które obejmują zautomatyzowane podejmowanie decyzji w dziedzinie sądownictwa i jej wykorzystanie do zarządzania migracją. Debaty wokół ChatGPT i OpenAI również budzą obawy o ich wpływ na nasze zdolności poznawcze.
Sanktuaria wolne od sztucznej inteligencji
Przypadki te pokazują obawy związane z wdrażaniem sztucznej inteligencji w sektorach, w których zagrożone są prawa człowieka, prywatność i zdolności kognitywne. Wskazują również na potrzebę stworzenia przestrzeni, w których działania związane ze sztuczną inteligencją powinny być ściśle regulowane.
Twierdzę, że obszary te można zdefiniować za pomocą starożytnej koncepcji sanktuariów. W artykule na temat „kapitalizmu nadzoru” Shoshana Zuboff odnosi się do prawa do sanktuarium jako antidotum na władzę, zabierając nas na wycieczkę po świętych miejscach, kościołach i klasztorach, w których niegdyś uciskane społeczności znajdowały schronienie. Przeciwstawiając się wszechobecnemu cyfrowemu nadzorowi, Zuboff nalega na prawo do sanktuarium poprzez stworzenie solidnych regulacji cyfrowych, abyśmy mogli cieszyć się „przestrzenią nienaruszalnego schronienia”.
Idea „sanktuariów wolnych od AI” nie oznacza zakazu stosowania sztucznej inteligencji, ale silniejszą regulację zastosowań tych technologii. W przypadku unijnej ustawy o AI oznacza to bardziej precyzyjną definicję pojęcia szkody. W tej kwestii nie ma jednak jasnej definicji ani w proponowanym prawodawstwie UE, ani na poziomie państw członkowskich.
Jak twierdzi Suzanne Vergnolle, możliwym rozwiązaniem byłoby znalezienie wspólnych kryteriów dla państw członkowskich, które lepiej opisywałyby rodzaje szkód wynikających z manipulacyjnych praktyk AI. Należy również wziąć pod uwagę zbiorowe szkody wynikające z różnic rasowych i społeczno-ekonomicznych.
Aby wdrożyć sanktuaria wolne od sztucznej inteligencji, należy egzekwować przepisy pozwalające nam zachować nasze postawy poznawcze i psychiczne. Punktem wyjścia byłoby egzekwowanie nowej generacji praw – „neuropraw”, które chroniłyby naszą wolność emocjonalną w obliczu szybkiego postępu neurotechnologii. Roberto Andorno i Marcello Ienca twierdzą, że prawo do integralności psychicznej – już chronione przez Europejski Trybunał Praw Człowieka – powinno wykraczać poza przypadki chorób psychicznych i dotyczyć nieautoryzowanych ingerencji, w tym przez systemy sztucznej inteligencji.
Sanktuaria wolne od AI: manifest
Z góry chciałbym zasugerować prawo „sanktuariów wolnych od AI”. Obejmuje ono następujące (tymczasowe) zapisy:
– Prawo do rezygnacji. Wszystkie osoby mają prawo do rezygnacji z rodzajów wsparcia AI w obszarach wrażliwych, które można wybrać w dowolnym okresie. Wiąże się to z całkowitym brakiem ingerencji urządzenia AI i/lub umiarkowaną ingerencją.
– Brak sankcji. Rezygnacja ze wsparcia AI nigdy nie pociągnie za sobą żadnych ekonomicznych ani społecznych konsekwencji.
– Prawo do autonomicznej decyzji. Każdy człowiek ma prawo do decydowania o sobie, bez udziału sztucznej inteligencji.
– Wrażliwe obszary i ludzie. We współpracy ze społeczeństwem obywatelskim i podmiotami prywatnymi władze publiczne określą obszary, które są szczególnie wrażliwe (np. edukacja, zdrowie), a także grupy społeczne i demograficzne, takie jak dzieci, które nie powinny być narażone lub umiarkowanie narażone na ingerencję sztucznej inteligencji.
Sanktuaria wolne od AI w świecie realnym
Do tej pory „obszary wolne od sztucznej inteligencji” były stosowane nierównomiernie, ze ściśle przestrzennego punktu widzenia. Niektóre amerykańskie i europejskie szkoły zdecydowały się zrezygnować z ekranów w salach lekcyjnych – tak zwany ruch „edukacji beztechnologicznej”.
Wiele programów edukacji cyfrowej opiera się na projektach, które mogą sprzyjać uzależnieniu, podczas gdy niedofinasowane szkoły publiczne w coraz większym stopniu polegają na ekranach i narzędziach cyfrowych, które zwiększają przepaść społeczną.
Nawet poza kontrolowanymi obszarami, takimi jak sale lekcyjne, zasięg sztucznej inteligencji rozszerza się. W latach 2019-2021 kilkanaście amerykańskich miast uchwaliło przepisy ograniczające i zakazujące wykorzystywania rozpoznawania twarzy na potrzeby egzekwowania prawa. Jednak od 2022 r. wiele metropolii wycofuje się z tego pomysłu w odpowiedzi na rosnącą przestępczość. Pomimo proponowanych przez KE przepisów, we Francji kamery kontrolowane przez AI będą monitorować Igrzyska Olimpijskie w Paryżu w 2024 roku.
Chcesz być na bieżąco? Subskrybuj 300Sekund, nasz codzienny newsletter!
Pomimo swojego potencjału wzmacniania nierówności, sztuczna inteligencja analizująca twarz jest wykorzystywana w niektórych rozmowach kwalifikacyjnych. W połączeniu z danymi kandydatów, którzy odnieśli sukces w przeszłości, sztuczna inteligencja miałaby tendencję do wybierania osób z uprzywilejowanych kręgów i wykluczania tych, które stoją niżej na drabinie społecznej. Takie praktyki powinny być zakazane.
Wyszukiwarki internetowe oparte na sztucznej inteligencji również powinny zostać zakazane, ponieważ technologia ta nie jest gotowa do użycia na obecnym etapie. Rzeczywiście, jak zauważa Melissa Heikkiläa w opublikowanym w 2023 r. artykule dla MIT Technology Review, „tekst wygenerowany przez sztuczną inteligencję wygląda na miarodajny i cytuje źródła, co jak na ironię może sprawić, że użytkownicy będą jeszcze mniej skłonni do podwójnego sprawdzania informacji, które otrzymują”. Istnieje również pewien aspekt wyzysku, ponieważ „użytkownicy wykonują teraz pracę polegającą na testowaniu tej technologii za darmo”.
Pozwolić na postęp, chronić prawa
Prawo do sanktuariów wolnych od sztucznej inteligencji pozwoli na postęp techniczny AI przy jednoczesnej ochronie zdolności poznawczych i emocjonalnych wszystkich jednostek. Możliwość rezygnacji z korzystania ze sztucznej inteligencji jest niezbędna, jeśli chcemy zachować nasze zdolności do zdobywania wiedzy, przeżywania doświadczeń na własne sposoby i zachowania osobistej oceny moralnej.
W powieści Dana Simmonsa odrodzona „cybryda” poety Johna Keatsa jest odłączona od Datasfery i dzięki temu może oprzeć się przejęciu przez sztuczną inteligencję. Ten aspekt jest pouczający, ponieważ ujawnia również znaczenie debat na temat wpływu sztucznej inteligencji na sztukę, muzykę, literaturę i kulturę. Te Istotnie, również z punktu widzenia praw autorskich, ludzkie działania są ściśle związane z naszą wyobraźnią i kreatywnością, a te zdolności są przede wszystkim kamieniem węgielnym naszych możliwości stawiania oporu i samodzielnego myślenia.
Tłumaczył: Tomasz Krzyżanowski
Tekst został opublikowany w The Conversation i zamieszczony tutaj na podstawie otwartej licencji (Creative Commons license). Przeczytaj oryginalny artykuł.
Więcej o sztucznej inteligencji piszemy tutaj:
- Sztuczna inteligencja ewoluuje. Dr inż. Jerzy Greblicki o roli ChatGPT [WIDEO]
- Sztuczna inteligencja nie zastępuje jeszcze pracowników. UE chce okiełznać AI
- Kogo sztuczna inteligencja pozbawi pracy i dlaczego? Najbardziej zagrożone zawody
- Sztuczna inteligencja ma oko na klienta. Tak handlowcy wykorzystują SI do zwiększania sprzedaży
- Napisze wiersz, namaluje obraz. Sztuczna inteligencja wkrada się na rynek pracy