Choć autonomiczne pojazdy można już spotkać na ulicach wielu miast na całym świecie, ich wprowadzenie wciąż budzi kontrowersje.
Niedawno Tesla wycofała ponad dwa miliony samochodów po wykryciu przez amerykański organ nadzoru problemów z systemem wspomagania kierowcy. Firma nie zgodziła się z analizą US National Highway Traffic Safety Administration (NHTSA), ale zobowiązała się do dodania nowych funkcji.
Autopilot Tesli nie jest w pełni autonomiczny, ponieważ kierowca musi być obecny przez cały czas. Autonomiczne, samojezdne auta zostały już jednak wdrożone jako taksówki bez kierowcy lub „robotaksówki” w kilku amerykańskich miastach, w tym w San Francisco i Phoenix.
Czytaj także: W samochodzie porozmawiasz ze sztuczną inteligencją. Volkswagen wprowadza Chat GPT
Cruise, firma robotaxi należąca do General Motors, niedawno zawiesiła swoją licencję operacyjną w Kalifornii po zaledwie dwóch miesiącach prowadzenia komercyjnej działalności. Następnie firma wstrzymała operacje w całych Stanach Zjednoczonych, a jej prezes wkrótce zrezygnował.
Nastąpiło to po kilku głośnych incydentach. W październiku pojazd Cruise zepchnął pieszego na pobocze po tym, jak został potrącony przez inny samochód. Jak wyjaśniono na stronie internetowej firmy: „AV wykrył kolizję, zatrzymując pojazd; następnie próbował zjechać na pobocze, aby uniknąć dalszych problemów związanych z bezpieczeństwem na drodze, ciągnąc pieszego za sobą na odcinku około sześciu metrów”.
Odnotowano jednak również kilka przypadków, w których autonomiczne samochody zatrzymały się na drodze, w tym w przypadkach, gdy w pobliżu znajdowały się pojazdy służb ratowniczych.
Problem z zatrzymywaniem
Incydenty te podkreślają tendencję autonomicznych samochodów do zatrzymywania się na środku drogi, gdy tylko napotkają jakieś problemy. Jak wiedzą kierowcy, nie zawsze jest to bezpieczne i może powodować jeszcze większe utrudnienia w ruchu.
Takie zachowanie oprogramowania samochodu stanowi sedno głębszego wyzwania: w jaki sposób można zaprojektować autonomiczne auta, aby ich rozumienie jazdy i zachowania na drodze było tak samo dobre jak u ludzi?
W badaniach, które chcę opisać, połączyliśmy nasze doświadczenie w projektowaniu autonomicznych samochodów dla Nissana z nowym podejściem, które wykorzystuje wideo do zrozumienia zachowania kierowcy. Użyliśmy nagrań z kamer umieszczonych w autonomicznych samochodach, aby zrozumieć błędy popełniane przez te pojazdy na drodze.
Jak pokazują wspomniane wcześniej incydenty, postrzeganie drogi przez autonomiczny pojazd niekoniecznie jest takie samo jak w przypadku człowieka. Autonomiczny samochód konstruuje uproszczony obraz rzeczywistości na podstawie danych z czujników, które ignorują ogromną ilość szczegółów pochodzących z realnego świata i zachodzących w nim społecznych interakcji. Systemy autonomicznej jazdy identyfikują rzeczywistość za pomocą abstrakcyjnych kategorii, takich jak samochody, rowerzyści, piesi, ciężarówki itp.
Każda ludzka sylwetka w obrazie wideo jest traktowana jako pieszy, bez różnic które mogą dostrzegać kierowcy, takich jak to, czy dana osoba maszeruje w demonstracji, czy biegnie za autobusem. Nasz ludzki wzrok jest trenowany od dzieciństwa i liczymy na to, że inni będą widzieć rzeczy w ten sam sposób, w jaki my je postrzegamy.
Rozważmy przypadek pieszego, który był ciągnięty przez robotaxi. W przypadku, gdy możesz kogoś potrącić, być może nie jesteś w stanie bezpośrednio zobaczyć osoby, w którą właśnie uderzył twój samochód, ale wiesz, że nie rozpłynęła się w powietrzu. Nasze poczucie istnienia obiektu doprowadziłoby nas do zatrzymania się i sprawdzenia, czy ta osoba potrzebuje pomocy medycznej.
Takie sytuacje są znane w branży oprogramowania jako „przypadki brzegowe”: stosunkowo rzadkie sytuacje, których programiści nie przewidzieli.
Podstawowym założeniem leżącym u podstaw autonomicznych samochodów jest to, że liczba nietypowych sytuacji jest skończona. Istnieją jednak wszelkie powody, by sądzić, że realny świat wcale nie jest tworem skończonym i że zawsze będą pojawiać się zupełnie nowe, nigdy wcześniej niewidziane przypadki brzegowe.
Zróżnicowane zachowanie
Kiedy ludzie napotykają zupełnie nową sytuację, dokonują oceny tego, co należy zrobić. Nie wykonujemy po prostu działania związanego z „najbardziej podobną” sytuacją zapisaną w naszej pamięci.
Autonomicznym samochodom brakuje takiej oceny, więc mogą albo zgadywać, albo uciekać się do rzekomo neutralnego lub bezpiecznego rozwiązania: zatrzymania się. W naszych nagraniach wideo z autonomicznych samochodów ich najczęstszym zachowaniem w nietypowej sytuacji jest po prostu zatrzymanie się na drodze.
Jednak takie rozwiązanie niekoniecznie musi być najbezpieczniejszym wyborem, zwłaszcza jeśli wymaga zahamowania przed wozem strażackim. To nie tylko blokuje ruch, ale także powoduje zagrożenie samo w sobie. Nasze filmy zawierają przykłady takiego „zatrzymywania się” w najbardziej banalnych sytuacjach – takich jak wielokierunkowe skrzyżowanie na które kierowca musi wjechać wolno lub gdy pachołek drogowy został nieznacznie przesunięty w lewo lub w prawo.
Bądź na bieżąco z najważniejszymi informacjami subskrybując nasz codzienny newsletter 300Sekund! Obserwuj nas również w Wiadomościach Google.
W przypadku kierowców możemy rozwiązać takie nieporozumienia za pomocą gestów, użycia klaksonu, a może nawet spojrzenia w określonym kierunku. Jednak samochody bez kierowcy nie potrafią zrobić żadnej z tych rzeczy. W rzeczywistości ich ciągłe niezrozumienie ludzkich intencji oznacza, że podstawowe problemy pojawiają się znacznie częściej.
Chociaż mamy poważne obawy dotyczące bezpieczeństwa autonomicznych samochodów, jesteśmy również zaniepokojeni tym, w jaki sposób mogą one blokować i zakłócać ruch poprzez swoją niezdolność do radzenia sobie z wieloma zwykłymi sytuacjami na drodze.
W niedawnym artykule zaproponowaliśmy kilka potencjalnych rozwiązań w zakresie projektowania samochodów autonomicznych, tak aby były one lepiej rozumiane przez innych uczestników ruchu drogowego. Omówiliśmy pięć podstawowych elementów jazdy: odstępy, prędkość, pozycję, sygnalizację i zatrzymanie.
Elementy te można łączyć w celu komunikowania się z innymi użytkownikami dróg, sygnalizowania zagrożeń, zgłaszania zamiarów i preferencji.
Niezależnie od przyszłych możliwości autonomicznych samochodów, naukowcy muszą rozwiązać problemy, zanim pojazdy te zostaną wdrożone na szerszą skalę, a te same „problemy z zatrzymywaniem” zaczną być powielane na całym świecie.
Tłumaczył: Tomasz Krzyżanowski
Tekst został opublikowany wcześniej w The Conversation i zamieszczony tutaj na podstawie otwartej licencji (Creative Commons license). Przeczytaj oryginalny artykuł.
Czytaj także:
- Dlaczego niektórzy ludzie nie ufają nauce – i jak zmienić ich nastawienie?
- Była zabawa, jest kac. Jeden rodzaj alkoholu wywołuje bóle głowy częściej, niż inne
- Odpuściłeś sobie w święta i teraz się wstydzisz. Niepotrzebnie: to nie zawsze jest niezdrowe
- Praca imigrantów: największe źródło bogactwa i wstydu europejskiego rolnictwa