{"vars":{{"pageTitle":"Pułapki sztucznej inteligencji. Tysiące nielegalnych obrazów dzieci w bazie danych modeli AI","pagePostType":"post","pagePostType2":"single-post","pageCategory":["news"],"pageAttributes":["badania-nad-sztuczna-inteligencja","cyberzagrozenia","fake-news","generator-obrazow","najnowsze","sztuczna-inteligencja"],"pagePostAuthor":"Filip Majewski","pagePostDate":"27 grudnia 2023","pagePostDateYear":"2023","pagePostDateMonth":"12","pagePostDateDay":"27","postCountOnPage":1,"postCountTotal":1,"postID":649735}} }
300Gospodarka.pl

Pułapki sztucznej inteligencji. Tysiące nielegalnych obrazów dzieci w bazie danych modeli AI

Naukowcy ze Stanford Internet Observatory odkryli ponad 3200 zdjęć ukazujących seksualne wykorzystywanie dzieci, ukrytych w popularnych generatorach AI. Baza danych znana jako LAION, była wykorzystywana do szkolenia wiodących generatorów obrazów takich jak m.in. Stable Diffusion.

O sprawie informuje The Guardian. W odpowiedzi na te szokujące ustalenia, operatorzy niektórych z tych generatorów szybko zablokowali dostęp do swoich zbiorów danych. Large-scale Artificial Intelligence Open Network (LAION) natychmiast usunął swoje dane, podkreślając zerową tolerancję dla nielegalnych treści.

Nasza polityka opiera się na zerowej tolerancji dla nielegalnych treści i w nadmiarze ostrożności usunęliśmy zbiory danych LAION, aby upewnić się, że są one bezpieczne przed ponownym opublikowaniem – opublikowała platforma, cytowana przez Guardiana.


Czytaj także: Sztuczna inteligencja ewoluuje. Dr inż. Jerzy Greblicki o roli ChatGPT [WIDEO]


AI generuje coraz bardziej realistyczne zdjęcia

Stanford Internet Observatory ostrzega, że zdjęcia te mają wpływ na narzędzia sztucznej inteligencji, które mogą generować niebezpieczne treści, a także powodować znaczne nadużycia m.in., szerzenie fake news’ow.

Oczyszczenie bazy danych z tego rodzaju treści nie jest takie proste, dlatego Stanford Internet Observatory wzywa do podjęcia bardziej radykalnych działań. Apelują do osób korzystających z danej bazy LAION-5B, aby usunęły niebezpieczne treści lub pracowały z pośrednikami, aby oczyścić te materiały.

Legalne platformy mogą zaprzestać oferowania wersji do pobrania, zwłaszcza jeśli są one często wykorzystywane do generowania szkodliwych obrazów i nie posiadają zabezpieczeń blokujących – podkreśla główny technolog Stanford Internet Observatory, David Thiel, który jest również jednym z autorów raportu.


Bądź na bieżąco z najważniejszymi informacjami subskrybując nasz codzienny newsletter 300Sekund! Obserwuj nas również w Wiadomościach Google.


Firmy dokładnie sprawdzają bazy danych

Z kolei firma Stability AI, twórca modeli tekst-obraz Stable Diffusion, zadeklarowała podjęcie działań mających na celu minimalizację ryzyka nadużycia poprzez filtrację treści. Podobne działania podejmuje LAION, wprowadzając rygorystyczne filtry, choć według raportu, wcześniejsza konsultacja z ekspertami mogłaby poprawić skuteczność tych działań.

Wiele generatorów tekst-obraz pochodzi z bazy danych LAION, choć nie zawsze jest jasne, które dokładnie. OpenAI, twórca Dall-E i ChatGPT, powiedział, że nie korzystał z LAION i tak dostroił swoje modele, aby odmawiały żądań dotyczących treści seksualnych z udziałem nieletnich.

Google zbudował swój model Imagen na podstawie zbioru danych LAION, ale zdecydował się nie udostępniać go publicznie w 2022 roku po audycie bazy danych, który „odkrył szeroki zakres nieodpowiednich treści, w tym obrazy pornograficzne, rasistowskie obelgi i szkodliwe stereotypy społeczne”, podano.

Polecamy także: