Rosną obawy dotyczące etycznych i społecznych konsekwencji sztucznej inteligencji. Może się więc wydawać, że nadszedł czas, aby zwolnić tempo. Jednak w firmach technologicznych nastroje są wręcz przeciwne.
W miarę jak w Big Tech rozwija się wyścig o sztuczną inteligencję, byłoby „absolutnie fatalnym błędem w tym momencie martwić się o rzeczy, które można naprawić później”, napisał jeden z członków zarządu Microsoftu w wewnętrznym e-mailu na temat AI, do którego dotarł „The New York Times”.
Innymi słowy, nadszedł czas, aby „działać szybko i psuć zabawki”, by zacytować stare powiedzenie Marka Zuckerberga. Oczywiście, kiedy coś zepsujesz, być może będziesz musiał to później naprawić – co wiąże się z kosztami.
Czytaj także: Cyfrowy postkolonializm. Tak się wykorzystuje tanią siłę roboczą w sektorze AI
W rozwoju oprogramowania termin „dług techniczny” odnosi się do kosztu przyszłych poprawek, jako konsekwencji wyboru szybszych, mniej rozważnych rozwiązań teraz. Pośpiech na rynku może oznaczać wypuszczanie oprogramowania, które nie jest gotowe, ze świadomością, że kiedy już trafi na rynek, dowiesz się, jakie są błędy i będziesz mógł je wtedy, być może, naprawić.
Jednak negatywne doniesienia na temat sztucznej inteligencji najnowszej generacji zwykle nie dotyczą tego rodzaju błędów. Większość obaw dotyczy systemów AI wzmacniających krzywdzące uprzedzenia i stereotypy oraz studentów wykorzystujących AI do pisania prac magisterskich. Słyszymy o wątpliwościach związanych z prywatnością, o tym, że ludziom podawane są błędne informacje, o wyzysku pracowników i o obawach dotyczących tego, jak szybko mogą zostać zastąpione miejsca pracy prawdziwych ludzi. Te problemy nie są usterkami oprogramowania. Uświadomienie sobie, że dana technologia wzmacnia opresję lub uprzedzenia, różni się znacznie od stwierdzenia, że przycisk na stronie internetowej nie działa.
Jako nauczycielka etyki technologii i badaczka, dużo myślałam o tego rodzaju „błędach”. To, z czym mamy do czynienia, to nie tylko dług technologiczny, ale także etyczny. O ile dług technologiczny może wynikać z ograniczonych testów podczas procesu wdrażania, o tyle dług etyczny wynika z nieuwzględnienia możliwych, negatywnych konsekwencji lub szkód społecznych. A w przypadku długu etycznego, ludzie, którzy go zaciągają, rzadko sami za niego płacą.
Na wyścigi
Gdy w listopadzie 2022 roku ukazał się ChatGPT i odpalił pistolet startowy w obecnym wyścigu o AI, poczułam, że strona „występków” zaczyna się szybko wypełniać.
W ciągu kilku miesięcy Google i Microsoft wypuściły swoje własne programy sztucznej inteligencji, które miały sprawić wrażenie, że dotrzymują kroku konkurencji.
Ceny akcji Google’a spadły, gdy jego chatbot Bard z przekonaniem udzielił błędnej odpowiedzi podczas firmowego demo.
Można by się spodziewać, że Microsoft będzie szczególnie ostrożny, jeśli chodzi o chatboty, biorąc pod uwagę Tay – jego bota na Twitterze, który został prawie natychmiast wyłączony w 2016 r. Okazało się, że udziela w większości mizoginistycznych i rasistowskich odpowiedzi na zadane pytania. Jednak już wcześniejsze konwersacje z napędzanym sztuczną inteligencją Bingiem wprawiały niektórych użytkowników w zakłopotanie, a on sam powtarzał znane błędne informacje.
Spodziewam się, że kiedy nadejdzie termin spłaty długu społecznego tych pospiesznie wprowadzonych programów, usłyszymy wzmianki o niezamierzonych lub nieprzewidzianych konsekwencjach. W końcu, nawet przy wprowadzonych kryteriach etycznych, nie jest tak, że OpenAI, Microsoft czy Google mogą przewidzieć przyszłość. Skąd ktoś może wiedzieć, jakie problemy społeczne mogą się pojawić, zanim jeszcze dana technologia zostanie w pełni wdrożona?
Źródłem tego dylematu jest niepewność, która jest częstym efektem ubocznym wielu rewolucji technologicznych. Jednak w przypadku sztucznej inteligencji jest spotęgowana. W końcu częścią sensu istnienia AI jest to, że jej poczynania nie są z góry znane. Być może AI nie została wymyślona w złych intencjach, ale jej twórcy wiedzieli, że może wywoływać nieprzewidziane skutki.
Nieuczciwe jest jednak sugerowanie, że twórcy technologii nie mogą dokładnie określić, jakie mogą być te konsekwencje. Do tej pory pojawiły się niezliczone przykłady tego, jak AI może powielać uprzedzenia i pogłębiać nierówności społeczne, ale problemy te rzadko są nagłaśniane przez same firmy technologiczne.
To właśnie zewnętrzni specjaliści wykryli wiele przypadków uprzedzeń rasowych w szeroko stosowanych komercyjnych systemach analizy twarzy. Na przykład w algorytmie przewidywania ryzyka medycznego, który był stosowany wobec około 200 mln Amerykanów. Naukowcy i prawnicy z organizacji takich jak Algorithmic Justice League i Distributed AI Research Institute wykonują świetną robotę: identyfikują szkody po fakcie. Niestety nie wydaje się, by ten wzorzec miał się zmienić, jeśli firmy będą nadal zwalniać specjalistów od etyki.
Spekulować odpowiedzialnie
Czasami określam się jako technologicznego optymistę, który myśli i przygotowuje się na najgorsze. Jedynym sposobem na zmniejszenie długu etycznego jest poświęcenie czasu na myślenie z wyprzedzeniem o rzeczach, które mogą pójść źle. Ale to nie jest coś, czego specjalistów od IT uczą na kursach.
Naukowiec i kultowy pisarz science fiction, Isaac Asimov powiedział kiedyś, że pisarze z jego branży „przewidują to, co nieuniknione, i chociaż problemy i katastrofy mogą być nieuchronne, to rozwiązania już nie są”. Oczywiście autorzy science fiction nie mają raczej za zadanie opracowywania tych rozwiązań – ale w tej chwili na specjalistach od technologii rozwijających AI spoczywa ten obowiązek.
Jak więc projektanci AI mogą nauczyć się myśleć bardziej jak pisarze science fiction? Jeden z moich obecnych projektów badawczych skupia się na opracowaniu sposobów wspierania procesu etycznej spekulacji. Nie mam na myśli projektowania z myślą o odległych wojnach robotów; chodzi mi o zdolność do rozważania przyszłych konsekwencji ogólnych, w tym w bardzo bliskiej przyszłości.
Jest to temat, który od jakiegoś czasu zgłębiam w swojej pracy dydaktycznej, zachęcając uczniów do przemyślenia etycznych implikacji technologii z filmów sci-fi, aby przygotować ich do zrobienia tego samego z technologią, którą sami mogą stworzyć. Jedno z opracowanych przeze mnie ćwiczeń nazywa się Black Mirror Writers Room, gdzie uczniowie spekulują na temat możliwych negatywnych konsekwencji technologii, takich jak algorytmy mediów społecznościowych czy automatyczne samochody. Często te dyskusje oparte są na wzorcach z przeszłości lub potencjale złych graczy.
Wraz z doktorantką Shamiką Klassen oceniliśmy to ćwiczenie w badaniach i stwierdziliśmy, że zachęcanie studentów informatyki do wyobrażania sobie, co może pójść nie tak w przyszłości – a następnie do burzy mózgów na temat tego, jak możemy uniknąć takiej przyszłości – przynosi korzyści edukacyjne.
Jednak celem nie jest przygotowanie uczniów na tę odległą przyszłość, ale nauczenie ich spekulowania jako umiejętności, którą można zastosować natychmiast. Szczególnie ważne jest, by uświadomić studentom, jakie szkody mogą wyrządzić swoimi rozwiązaniami technologicznymi, szczególnie grupom, które są słabo reprezentowane w branży IT. Kolejnym krokiem w moich badaniach jest przełożenie tych strategii etycznej spekulacji na zespoły projektujące technologie w świecie rzeczywistym.
Czas wcisnąć pauzę?
W marcu 2023 roku w liście otwartym tysiące osób opowiedziało się za wstrzymaniem procesu kształcenia systemów AI, potężniejszych niż GPT-4. Niekontrolowany rozwój sztucznej inteligencji „może w końcu przerosnąć, przechytrzyć, zdezaktualizować i zastąpić nas”, a nawet spowodować „utratę kontroli nad naszą cywilizacją” – ostrzegali jego autorzy.
Jak wskazują krytycy listu, to skupienie się na hipotetycznych zagrożeniach ignoruje rzeczywiste szkody, które mają miejsce obecnie. Niemniej jednak, myślę, że wśród etyków AI nie ma wątpliwości co do tego, że rozwój sztucznej inteligencji musi zostać spowolniony – i że programistom rozkładającym ręce i powołującym się na „niezamierzone konsekwencje” nie uda się tego osiągnąć.
Wyścig AI dopiero od kilku miesięcy nabiera tempa, a już teraz widać, że względy etyczne schodzą na dalszy plan. Ale długi w końcu trzeba będzie spłacić – a historia sugeruje, że szefowie i inwestorzy Big Tech mogą nie być tymi, którzy je pokryją.
Tłumaczył: Tomasz Krzyżanowski
Tekst został opublikowany w The Conversation i zamieszczony tutaj na podstawie otwartej licencji (Creative Commons license). Przeczytaj oryginalny artykuł.
Czytaj więcej tekstów o sztucznej inteligencji:
- Kogo sztuczna inteligencja pozbawi pracy i dlaczego? Najbardziej zagrożone zawody
- Cyfrowy postkolonializm. Tak się wykorzystuje tanią siłę roboczą w sektorze AI
- List otwarty o wstrzymanie rozwoju sztucznej inteligencji pod ostrzałem krytyki. „To niewykonalne”
- Napisze wiersz, namaluje obraz. Sztuczna inteligencja wkrada się na rynek pracy