Po wakacjach czeka nas trzęsienie ziemi w AI: wejdą multimodalne systemy zdolne do komunikacji w czasie rzeczywistym przez wideo i głos. Będzie można z nimi rozmawiać, jak z drugim człowiekiem. Większość ludzi nie jest na to gotowa. Nie jest na to gotowa gospodarka – mówi Aureliusz Górski*, twórca startupu CampusAI.
Katarzyna Mokrzycka, 300Gospodarka: Jak pan przekonał do współpracy Macieja Zientarę, który bardzo szybko wyłożył na pana startup Campus AI 10 mln dolarów? [>>o tej inwestycji piszemy więcej TU]
Aureliusz Górski, CampusAI: Wysłałem mu prezentację, na której mój awatar opowiadał o każdym slajdzie. Zamierzałem ją wysłać do wielu inwestorów w USA, aby umówić się na spotkania za kilka miesięcy, ale znajomy powiedział mi, że warto porozmawiać najpierw z Maciejem. Prezentacja była tak realistyczna, że Maciej pomyślał, że to nagranie wideo. Maciej jest już zresztą inwestorem wielu ciekawych przedsięwzięć z obszaru AI czy fintech i rozumie znaczenie technologii. Od razu poczuł naszą misję w zakresie podnoszenia świadomości ludzi co do AI. A mnie ucieszyło, że mogłem rozmawiać o 10 mln dolarów w rundzie pre-seed z kimś w Polsce. Liczby mówiły same za siebie, ponieważ CampusAI od pierwszego dnia był dochodowym biznesem, co rzadko się zdarza w świecie startupów. Miałem plan na globalny rozwój w 2 lata, ponieważ potrzeba jest taka sama w każdym kraju, a my mieliśmy w pełni zautomatyzowaną wersję beta produktu.
AI z treści slajdu sama zbudowała postać i całą wypowiedź?
Tak. Miał to być pokaz technologii i naszych metod pracy z AI. Zrobiłem kilka slajdów z danymi i wykresami. Awatar został wygenerowany automatycznie na podstawie danych ze slajdu. Sam wygenerował też tekst, który wypowiada – również z danych ze slajdu, a ja nie zmieniłem ani jednego słowa, chociaż jest kilka błędów.
Za chwilę to będzie zupełnie naturalna forma komunikacji.
Awatarem komunikuje się już dziś Ministerstwo Spraw Zagranicznych Ukrainy – zamiast rzecznika mają awatara, który opowiada, co się dzieje na Ukrainie. Jest postacią cyfrową. Ryzyko jest jednak takie, że wystarczy zaledwie kilka minut, aby sklonować i udawać ministerstwo.
Da się przed tym zabezpieczyć?
To jest niemal niemożliwe. W każdej chwili z dowolnego nagrania mogę sklonować pani głos i z jednego zdjęcia z internetu stworzyć pani awatara.
Ludzie muszą zrozumieć, że sztuczna inteligencja zostanie z nami i że musimy nauczyć się współistnieć. Era rewolucji generatywnej AI, która sama się uczy i kreuje dane, wykreuje też nowy poziom relacji – nie tylko międzyludzkich. Tak jak dotychczas pracowaliśmy tylko z ludźmi i uczyliśmy się koegzystować w społeczeństwie i miejscach pracy, teraz musimy nauczyć się koegzystować i współpracować ze sztuczną inteligencją. Wejdziemy na zupełnie inny poziom rozumienia siebie. My nazywamy to Human+AI Collaboration i od dłuższego czasu prowadzimy badania na ten temat we współpracy z naukowcami. Inspiracją były badania prof. Aleksandry Przegalińskiej, która była absolutnym prekursorem tego tematu w Polsce i jest globalnym autorytetem w dziedzinie współpracującej sztucznej inteligencji. Zajmowała się tym już 10 lat temu.
Dziś w naszej branży powstaje na świecie około dwieście startupów dziennie, które tworzą rozwiązania AI w oparciu o silniki GPT.
200 pomysłów AI wykorzystujących modele GPT dziennie?
Nie, 200 startupów, które mają już jakieś rozwiązania do wprowadzenia na rynek. Pomysłów jest znacznie więcej, większość nigdy nie dojdzie do fazy produktowej.
Generatywna AI zmieni totalnie to, w jaki sposób działa dziś świat. Będziemy mniej pracować z innymi ludźmi, a więcej z samymi sobą i tylko dostarczać innym gotowe elementy. A my w Campus AI tej współpracy uczymy – na własnych zasadach każdego człowieka. Bardzo istotne jest to, żeby w nowe procesy wchodzić świadomie – być ich podmiotem, a nie przedmiotem.
Miałby pan odwagę korzystać z definitywnych decyzji AI?
Moim marzeniem od 2012 roku było stworzenie wirtualnego prezesa. Zbierałem masę danych na temat modeli biznesowych i przez 10 lat budowałem rozwiązania dla startupów.
30 listopada 2022 roku wydarzyło się coś rewolucyjnego na miarę powstania Internetu. OpenAI udostępniło aplikację konwersacyjną ChatGPT i każdy uzyskał do niego dostęp za darmo. Zadałem mu wtedy pytanie, jak można nauczyć kilka milionów ludzi na świecie wykorzystania sztucznej inteligencji. Odpowiedzi były genialne, a jedna z nich była iskrą do stworzenia CampusAI.
Zacząłem budować wirtualnych asystentów. Najpierw stworzyłem doradcę do spraw startupów.
Jak?
Wrzuciłem do modelu GPT kilkanaście wywiadów topowych przedsiębiorców, tych, których szanowałem i wydałem polecenie: wyobraź sobie, że jesteś doradcą do spraw budowania startupów. Chciałbym zrobić to, to, to i to – co mi radzisz? I kliknąłem „Enter”. W tym momencie AI przyjęła tożsamość – przedstawiła się jako Alex, doradca startupów z wieloletnim doświadczeniem.
Wykreowany w ten sposób doradca zrobił mi listę pracowników, których powinienem zatrudnić. I ja każdego z tych pracowników postanowiłem stworzyć, wykorzystując kontrolowane przechylanie modelu i zdolność do halucynacji. To był grudzień 2022.
Co znaczy „przechylanie i halucynacja”?
To branżowy żargon. Model GPT, na którym zbudowany jest popularny ChatGPT – halucynuje, co oznacza, że gdy go „wkręcimy” w to, że jest kimś konkretnym, to tak będzie się zachowywał. Jeśli polecimy mu być doradcą do spraw marketingu i damy mu pewien zasób wiedzy, którą później uzupełniamy, to tak będzie „grał”. Jeżeli ja go nakarmię wiedzą na temat mojej firmy, to on jest mi w stanie doradzać jako ekspert do spraw marketingu.
Stworzyłem w ten sposób chatboty do różnych typów zadań i przez mniej więcej dwa tygodnie przerzucałem między nimi informacje, tylko i wyłącznie patrząc, co oni tam wymyślają. Za każdym razem, kiedy wymyślili coś mądrego nadpisywałem ich bazę wiedzy.
Dorzucał im pan wciąż nowa wiedzę?
Tak – tak jakbym robił co tydzień zebranie całego zespołu i mówił: słuchajcie, to jest strategia marketingowa, a to sprzedaży – dyskutujmy.
Pan już miał te strategie, czy to „oni” je kreowali?
Ja je z nimi kreowałem. Prosiłem asystenta projektowego, żeby rozpisywał pomysły dyrektora do spraw marketingu na szczegółowe zadania i zbudowałem sobie olbrzymią strategię.
To było fascynujące, że chatboty podejmują tak dobre decyzje. Oczywiście, nie robiłem wszystkiego, co doradzały – wybierałem najlepsze pomysły. Byłem takim trochę obserwatorem tego całego procesu i w ciągu tygodnia zbudowałem coś, co w realu zajęłoby mi rok – tyle trwałoby wymyślanie tych rzeczy. Pomyślałem, że byłoby super pokazać to przestrzennie i móc wchodzić w interakcje z tymi wirtualnymi personami – w formie gry.
Wymyśliłem, że chcę zbudować metawersum – czyli wspólny wirtualny świat dla różnych osób, które miałby ochotę współpracować z AI.
Przełomowym momentem było powstanie w grudniu 2022 r. pierwszych bardzo dobrych modeli, które były w stanie za pomocą tekstu pisanego kreować obrazy architektoniczne. Postanowiłem, że wszystkie plany i programy dla CampusAI zwizualizuję w formie budynku. Na parterze będzie AI Playground, czyli takie miejsce, gdzie ludzie będą mogli doświadczać sztucznej inteligencji, na pierwszym piętrze będzie szkoła generative AI, na drugim piętrze będzie siłownia do trenowania kompetencji przyszłości, na kolejnych inkubator, akcelerator i klub biznesowy. Budynek też wymyśliła AI.
Cała firma i cała realizacja tylko z jednym człowiekiem, czyli z panem?
Rzeczywiście większość do tego momentu przygotowała AI, według moich wskazówek.
Później zaprosiłem do współpracy kilkanaście osób, z którymi pracowałem na różnych etapach zawodowych i z draftu, który przygotowała sztuczna inteligencja stworzyliśmy prawdziwy projekt.
Na ile różniło się to, co ustaliliście w kilkanaście osobowym zespole ludzkim od tego co wymyśliła AI?
Niedużo. Na tamtym etapie byliśmy tak zafascynowani AI, że traktowaliśmy ją jak równorzędnego pracownika.
W listopadzie 2024 roku będzie już można poruszać się po naszym wirtualnym budynku za pomocą wirtualnych postaci. Każda aktywność w tym budynku odwzorowuje rzeczywiste działania i miejsca, które istnieją w prawdziwym świecie. Na przykład magazyn, który właśnie wydaliśmy, powstaje w redakcji hAIMagazine.com, znajdującej się na dole tego wirtualnego budynku. W tej redakcji pracują ludzie, którzy ukończyli nasze szkolenia. Każdy z nich siedzi w swoim domu, w różnych miastach, ale współpracują w jednej wirtualnej przestrzeni.
To kiedy zaczynacie szkolenia?
Już zaczęliśmy. Jak tylko na początku 2023 r. zaczęły powstawać dobre technologie awatarowe, kupiliśmy dedykowane serwery i przenieśliśmy wizerunek profesor Aleksandry Przegalińskiej – wybitnej badaczki tematu AI – do przestrzeni wirtualnej i stworzyliśmy pierwsze wideo-treningi. Wystartowaliśmy w październiku 2023 r.. Za pomocą tej technologii przeszkoliliśmy dotąd 4 tys. osób w Polsce za pomocą tej technologii. W ciągu pierwszego miesiąca zarobiliśmy prawie milion złotych.
Na razie to co robimy jest dalej w fazie beta testów, ale jeszcze w tym roku zamierzamy skończyć pracę nad finalnym produktem i wejść na pierwszych 10 rynków. Do końca przyszłego roku, jeżeli wszystko pójdzie dobrze, chcemy być obecni na 100 rynkach na całym świecie.
Dlaczego to ma być lepsze niż klasyczne kursy i szkolenia?
Ponad 4 miliardy ludzi na świecie, czyli każdy, kto ma dostęp do Internetu, powinien nauczyć się świadomej współpracy z AI. Idealnie byłoby, gdybyśmy osiągnęli to w ciągu 3 lat. Nie jesteśmy w stanie tego zrobić tradycyjnymi metodami, dlatego zbudowaliśmy do tego w pełni automatyczny sytem przy wykorzystaniu AI.
Największym wyzwaniem związanym z AI jest brak świadomości, co jest możliwe dzięki współpracy z nią. Tworzymy wirtualny świat, aby uczestnicy mogli doświadczać technologii.
Postaci w naszym metawersum są podłączone do bazy wiedzy i danych, umożliwiając interakcję. Dzięki wirtualnym postaciom możemy udostępniać naszą wiedzę wielu osobom jednocześnie i personalizować przy tym ścieżki edukacyjne dla każdej osoby. W niektórych programach w CampusAI wokół jednego uczestnika działa kilkunastu wirtualnych agentów, którzy realizują konkretne zadania. Jeden słucha użytkownika, drugi daje instrukcje trzeciemu, by ten stworzył idealne zadanie. To ogromny algorytm. Zainwestowaliśmy w to dużo czasu i pieniędzy, ale wiemy, że to działa i jest efektywne. Teraz jesteśmy w stanie skalować taki proces.
Osiągamy świetne rezultaty – 87 proc. osób kończy nasze kursy, w porównaniu do standardowych szkoleń e-learningowych, które kończy tylko 5-15 proc. uczestników.
Naszym głównym celem jest wyrównanie poziomu wiedzy użytkowników, przez sprawdzenie, czy posiadają 8 kluczowych kompetencji niezbędnych do pracy z modelami konwersacyjnymi typu ChatGPT. Otwieramy też dedykowane platformy dla biznesu.
Jest pan bardzo pewny tych potrzeb społecznych. Dlaczego uważa pan, że ta nauka jest taka ważna?
Realia szybko się zmieniają. ChatGPT to już tylko zabawka, możliwości AI rosną w szybkim tempie. Od momentu pojawienia się ChatGPT, powstały systemy agentowe i multimodele, które mogą wykonywać złożone zadania, takie jak nagranie piosenki w 30 sekund, której przeciętny słuchacz radia nie odróżni od utworu nagranego klasycznie.
Po wakacjach czeka nas trzęsienie ziemi w AI – wejdą multimodalne systemy AI zdolne do komunikacji w czasie rzeczywistym przez wideo i głos. Będzie można z nimi rozmawiać dosłownie, jak z drugim człowiekiem. Większość ludzi nie jest na to gotowa. Nie jest na to gotowa gospodarka. Już w tym roku sztuczna inteligencja wprowadzi w niej znaczące zmiany. Po wakacjach wiele osób wróci do pracy, która może wyglądać zupełnie inaczej.
Co pan ma na myśli, mówiąc „znaczące zmiany w gospodarce”? Dotąd też pojawiały się różne technologie AI czy robotyczne, ale rynku pracy to jeszcze raczej nie dotknęło.
AI zacznie być zdolna do tego, by zastąpić ludzi w wielu obszarach, a firmy staną przed decyzją jak wdrażać tę technologię.
Zgodnie z zapowiedzią OpenAI, po wakacjach wejdą do powszechnego użytku systemy multimodalne, które będą w stanie komunikować się z użytkownikiem w czasie rzeczywistym z opóźnieniem zaledwie 320 milisekund – to mniej niż ja potrzebuję, by przemyśleć, co odpowiedzieć na to pytanie. Do tej pory to były 3 sekundy opóźnienia i można było to poczuć w „rozmowie” chatbotem. Teraz to będzie już płynna rozmowa z naśladowaniem emocji. Ten nowy system multimodalny będzie też mieć funkcję AI Vision – będzie w stanie obserwować rzeczywistość i reagować na nią „na żywo”. AI dzięki obrazowi z kamery będzie w stanie rozpoznać nasze emocje i będzie wykorzystywać tę wiedzę do lepszego zrozumienia, jak ma odpowiedzieć.
Ale za moją zgodą, mam nadzieję? Muszę kupić ten system i go zainstalować?
Oby. Być może na początku będzie płatny, ale za chwilę pewnie „darmowy” – w tym świecie nic nie jest za darmo, dane, które będziemy przekazywać będą użyte do trenowania kolejnych modeli. I ludzie będą je dawać tak samo, jak dają je w mediach społecznościowych. To jest niebezpieczne. Za dwa, trzy lata dojdziemy do systemów, które będą miały już pełną autonomię i będą w stanie zautomatyzować w pełni procesy kognitywne człowieka.
Każdy aspekt życia, nauki, pracy, a nawet zabawy ulegnie gigantycznej zmianie.
Najgorsze jest to, że lepsze jakościowo AI zawsze będzie płatne i w najbliższym czasie nawet prędkość internetu będzie miała znaczenie.
Dlaczego to najgorsze?
Bo to oznacza nierówny dostęp do przyszłości. Jeżeli ktoś będzie mieszkał w mieście, w którym nie ma światłowodu albo 5G, nie będzie miał takich możliwości jak ktoś, kto mieszka w Warszawie czy w innych dużych miastach.
W 2024 roku pojawią się dwa systemy multimodalne. OpenAI wprowadzi Omnimodel, dostępny w najnowszej wersji ChatGPT-4, a Microsoft i Apple już zapowiedzieli, że wdrożą to do swoich systemów operacyjnych. Google również dostarczy swój multimodalny system o nazwie Astra.
To i tak tylko okres przejściowy, ponieważ OpenAI dąży do stworzenia AGI – sztucznej inteligencji, która w każdym zadaniu przewyższy człowieka. Technologia ta ma pojawić się do 2030 roku, ale dzięki danym z Omnimodelu może to nastąpić szybciej.
Jeśli nie zadbamy o równomierne wdrażanie tej technologii na całym świecie, mogą pojawić się poważne problemy, takie jak gospodarki różnych prędkości, pogłębiające się nierówności czy zagrożenia dla ładu społecznego.
Niech pan poda przykłady zastosowania nowych rozwiązań, które mogą zmienić rynek pracy.
Jeśli potrafimy odpowiednio rozmawiać z AI, możemy zrobić praktycznie wszystko. Znajdziemy odpowiedź na dowolne pytanie lub wykonamy każde zadanie. Można stworzyć wirtualną personę, która przyjmie tożsamość i będzie ekspertem w dowolnej dziedzinie. Pracując nad projektem, możemy uzyskać perspektywę młodego pokolenia lub seniorów, konfrontując swoje pomysły z AI i otrzymując informację zwrotną. Ogranicza nas tylko nasza kreatywność. Chociaż nawet nie – o kreatywność też możemy poprosić AI.
Skończą się wakacje, młodzież wróci do szkół i właśnie wtedy pojawią się Omnimodel od OpenAI i Astra od Google. Taki system AI będzie w stanie być nauczycielem. Jeżeli szkoła będzie w stanie zintegrować z programami nauczania to super – może to popchnąć edukację do przodu. Jeżeli nauczyciele będą zabraniać korzystania z AI może to spowodować, że wiele osób wybierze szkołę w chmurze.
Zmieni się bardzo rynek korepetycji, ponieważ systemy multimodalne będą dawały taką atencję i takie prowadzenie przez problem, jakiego nie da człowiek. System będzie obserwował ucznia. Nie patrzył na niego, tylko widział – także jego emocje.
Ten system będzie w stanie uczyć matematyki, programowania, geografii, wszystkiego. I istotne będzie tylko to, by załadować do niego odpowiednie curriculum – program nauczania. Ten system może być całą szkołą. Nie zastąpi szkoły, jasne, bo szkoła pełni różne inne funkcje.
Młodzież zderzy się z wieloma nowymi wyzwaniami np. jak mogę być lepszy od komputera, po co uczyć się języków obcych, skoro AI mi wszystko przetłumaczy, po co uczyć się grać instrumencie skoro mogę coś sobie zawsze wygenerować. To duże niebezpieczeństwa, na które musimy być gotowi już w tym roku.
Ale dla niektórych części świata, gdzie brakuje zasobów ludzkich, to może być dziejowy, cywilizacyjny skok. Dzięki tym systemom do każdego dziecka w Afryce można na przykład dostarczyć edukację, której dziś dzieci nie otrzymują, bo nie ma nauczycieli.
A komercyjne użycie?
Bez względu na kierunek rozwoju, AI wprowadzi duże zmiany. Na pewno cała branża telemarketingu zmieni się błyskawicznie. Systemy multimodalne będą konsultantami wspierającymi obsługę klienta, ucząc się samodzielnie i szybko, bez częstej aktualizacji wiedzy.
Możliwości zastosowań jest znacznie więcej, na przykład: optymalizacja procesów biznesowych, automatyzacja zadań administracyjnych, personalizacja ofert i usług, analiza danych i prognozowanie trendów oraz zastosowania w medycynie, takie jak diagnostyka chorób.
Coraz więcej osób będzie też tworzyło swoje cyfrowe bliźniaki. Taki awatar będzie komunikował się w dowolnym języku i będzie dostępny 24/7.
13 lat temu ekonomista Piotr Arak napisał tekst o kompetencjach przyszłości na rynku pracy, zanim jeszcze to się stało modne. Postawił m.in. na: wnioskowanie, inteligencję emocjonalną, kompetencje międzykulturowe, interdyscyplinarność, myślenie projektowe, współpracę. Któraś z nich będzie wciąż ważna?
Każda z tych rzeczy rozumiana przez pryzmat starego modelu pracy zmieni się. Trzeba będzie wykreować zupełnie nowe umiejętności. Właśnie dlatego mówię, że przejdziemy bardzo dużą transformację całej gospodarki.
Ideą sztucznej inteligencji jest symulowanie pracy ludzkiego mózgu przez maszyny. Naukowcy pracują nad tym od 1956 roku. Do 2022 roku były to wynalazki i wąsko stosowane innowacje w gospodarce. ChatGPT zapoczątkował falę przełomowych innowacji w tej dziedzinie i dziś AI jest już obecna w naszym życiu, a do 2030 roku wyznaczy nowy paradygmat, najprawdopodobniej przekraczając kompetencje człowieka we wszystkich zadaniach.
To co jest dzisiaj najważniejszą kompetencją?
Myślę, że kluczowa będzie umiejętność szybkiej adaptacji do zmieniających się warunków, a coś, czego AI jeszcze długo nie osiągnie, to sprawczość. AI nie będzie w stanie zrealizować za nas pomysłu, szczególnie, jeśli wiąże się on ze światem fizycznym. Podobnie jak w startupach – pomysł nie jest nic wart, ale jego egzekucja jest kluczowa.
Czy gdy wydam Omnimodelowi polecenie: wykreuj mi pomysł na startup, którego jeszcze nie ma na rynku, to dostanę oryginalny pomysł?
Nie, sztuczna inteligencja nie będzie w stanie tego zrobić, ponieważ AI nie kreuje, tylko generuje pomysły na podstawie danych, na których była szkolona. Przynajmniej na razie. Istnieje jednak wiele sposobów na zmianę tego schematu, co pozwala generować bardziej kreatywne pomysły. Co innego, gdy pracuje Człowiek+AI.
Gdzie jest więc granica własnej produkcji w sytuacji, gdy robimy coś ze wspomaganiem AI?
My w CampusAI jasno mówimy, że jeśli ktoś stworzył coś samodzielnie, to może powiedzieć „stworzyłem”. Jeśli ktoś wygenerował coś z pomocą AI i nie dodał nic od siebie, proponujemy mówić „wygenerowałem”. Gdy zaś ktoś współpracował ze sztuczną inteligencją i proporcja wkładu jest 50/50, używamy terminu „co-crafting”, czyli „współwytworzyłem”. Mam wiedzę, kierunek, kompetencje i dane wejściowe, a dzięki mocy obliczeniowej i szybkości AI razem coś stworzyliśmy.
Pan użył wcześniej wyrażenia: pełna autonomia AI. I niestety w tym wypadku ta autonomia zaczyna brzmieć groźnie. Jak brak kontroli. To mylne wrażenie?
Do 2026 r. w Europie wejdzie w życie pełne stosowanie regulacji AI Act, która dokładnie ureguluje stosowanie AI, jasno określając: to można, tego nie można.
Przepisy idą w dobrą stronę? Często mówi się też, że regulacje dotyczące nowych technologii zawsze są spóźnione wobec ich rozwoju.
Zobaczymy. Problem nie w spóźnieniu, ale w tym, że AI Act będzie dotyczyć tylko rynku Unii Europejskiej. Jeśli w USA nie wprowadzą żadnych obostrzeń, to będziemy mieć na świecie gospodarkę dwóch prędkości. Europa będzie się samoograniczać, co jest dojrzałe, ale w międzyczasie w USA będzie rozwijała się zupełne inna cywilizacja. Być może pojawią się też nowe zagłębia technologiczne w innych, nowych, częściach świata, gdzie dziś nie ma jeszcze regulacji, a da się zbudować zaplecze infrastrukturalne, np. w niektórych krajach Afryki.
Pytanie jest więc o to, czy jako cywilizacja będziemy w stanie umówić się, co do równomiernego wdrażania sztucznej inteligencji i czy ludzie zrozumieją, że jej etyczne stosowanie jest krytyczne. Rządowe starania o kontrolę nad tą branżą mogą się z resztą okazać niewystarczające. Mając dobrą kartę graficzną można mieć AI lokalnie na własnym komputerze i stosować ją na własny użytek, a wtedy absolutnie nikt nie jest w stanie kontrolować, co ktoś na nim robi.
Czyli dopiero, gdy działalność staje się publiczna, gdy ktoś chce ją skomercjalizować będzie podlegać pod jakiś system kontroli. I może się okazać, że zanim ona się stanie publiczna, to zbuduje pan sobie Skynet we własnym komputerze, który pewnego dnia się wymknie spod kontroli?
Nie posuwałbym się aż tak daleko. Choć zderzenie sztucznej inteligencji i realnej głupoty może być mieszanką wybuchową. Regulowanie AI jest trudne, ponieważ nie możemy „wylać dziecka z kąpielą” – AI pomaga nam na każdym kroku, nawet gdy jej nie widzimy. Dlatego tak istotne jest zwiększanie świadomości i etyczne stosowanie AI. To jest klucz do sukcesu.
Da się ludzi nauczyć odróżniania rzeczywistości od nierzeczywistości? Czy ja, jako odbiorca jestem w stanie odróżnić – np. po odpowiedziach, których mi udziela druga strona – że to chat, a nie człowiek?
Teraz jeszcze możemy odróżnić AI od człowieka. Jednak wkrótce, z Omnimodelem od OpenAI, będzie to bardzo trudne. Po wakacjach wejdziemy w etap, w którym nie będziemy w stanie rozpoznać, czy coś zostało stworzone przez AI, czy przez prawdziwego człowieka. To duże zagrożenie, zwłaszcza dla osób starszych. Może do nich zadzwonić bot i podać się za krewnego, klonując jego głos.
Hipotetycznie – co, jeśli jednego dnia większość przywódców na świecie, oczywiście w formie awatarów, ogłosiłaby, że jesteśmy w stanie wojny? Informacja ta pojawiłaby się na profilach influencerów, którzy zaczęliby ją podawać dalej, bo to się będzie klikało… Zanim skorygujemy taką informację, minie wiele godzin. Zwłaszcza że większość młodych osób nie używa już telewizji ani radia jako źródła informacji.
Oczywiście ktoś za tym będzie stał więc nie bójmy się technologii tylko osób, które chcą wykorzystać ją nieetycznie.
To jak to można zniwelować szkoleniami?
Po prostu dajmy ludziom informację, że taka technologia już istnieje. CampusAI tworzy środowisko, w którym przygotowujemy ludzi na te zmiany i mamy nadzieję, że będą dzielić się swoją wiedzą dalej.
Samo podniesienie świadomości nie wystarczy. Musimy mieć jakiś system weryfikacji. Czy taki się pojawi?
Tak, AI Act wprowadzi obowiązek oznaczania treści stworzonych przez AI. Na szczęście, firmy technologiczne dostarczające narzędzia AI już zaczynają oznaczać generowane treści jako dobrą praktykę. Należy to rozwijać. Kluczowa jest także współpraca globalna między rządami, organizacjami i firmami technologicznymi.
To co by pan zalecał zwykłym użytkownikom internetu?
Musimy kwestionować praktycznie wszystko, co widzimy. Niestety, to samo będą też robić ludzie dokonujący przestępstw, tłumacząc, że to manipulacja AI. Żyjemy w ciekawych czasach, gdzie granica między rzeczywistością, a fikcją staje się coraz bardziej rozmyta.
Przeraża mnie taka rzeczywistość.
Mnie też. Od 30 listopada 2022 roku spędzam całe dnie z tą technologią, czytając absolutnie wszystko. Mam wsparcie Oli Przegalińskiej oraz prof. Darka Jemielniaka (oboje są bardzo blisko kręgu naukowców dysponujących kluczową wiedzą na świecie). Szczerze mówiąc jest to moment, kiedy nawet dla nas tempo zmian jest za szybkie. Cały czas zastanawiam się, czy zainstalować system multimodalny, bo nie wiem, do czego zostaną wykorzystane moje dane.
A jeśli nawet dla nas tempo jest za szybkie, to jak muszą czuć się ludzie, którzy na co dzień nie zajmują się AI? Dlatego chcemy uczyć, jak z nią żyć. Dążymy do tego, żeby nasz system był jak najbardziej dostępny i tani.
Czy gdyby Pan miał sobie wyobrazić kreowanie mechanizmów i produktów opartych o sztuczną inteligencję, to zobaczyłby pan drzewo, gdzie od jednej gałęzi rosnącej odrasta jedna, potem kolejna – taki system nadbudowywania kolejnych rozwiązań, które zawsze są oparte o coś, co było wcześniej, czy raczej budynek gdzie się dobudowuje kolejne pomieszczenia?
To bardziej, jak komórka, która raz się podzieliła i zaczęła tworzyć zupełnie nowe „życie”. Teraz jesteśmy w punkcie, gdzie ten proces jest nie do zatrzymania i nie do cofnięcia. Już zaczęliśmy tworzyć nowe „gatunki” technologiczne, a wszystko to rozwija się w szalonym tempie. Możemy tylko czekać, aż za dwa lata wejdzie w życie AI Act, co pomoże nam zrozumieć, ile dokładnie mamy tych modeli i do czego one służą.
Czy sztuczna inteligencja w swoim rozwoju ma w ogóle jeszcze jakiekolwiek bariery?
AI napotyka na sporo przeszkód, jak ogromne potrzeby obliczeniowe i niemałe rachunki za energię i sprzęt. To wszystko kosztuje i wymaga czasu, szczególnie gdy chodzi o przygotowanie danych, z którymi AI ma pracować. Ograniczenia w dostępie do danych mogą spowolnić postępy. Stosowanie się do regulacji też. Na horyzoncie pojawiają się jednak nowe rozwiązania, takie jak dane syntetyczne, które mogą pomóc ominąć niektóre z tych barier.
*Aureliusz Górski jest założycielem i prezesem startupu CampusAI. Jako venture builder, zebrał ponad 70 mln dol., rozwijając sześć organizacji w ciągu ostatnich 17 lat. Jego poprzednie projekty to AIP Business Link, pierwsza w Polsce sieć coworkingowa i akcelerator startupów oraz CIC Warsaw, centrum innowacji dla rozwijających się firm. W rundzie pre-seed, czyli fazie, gdy właściciel dopiero stara się o początkowy kapitał, CampusAI osiągnęła rekordowy wynik w historii polskich startupów.
Proponujemy także:
- Dane, czyli nowa ropa dla współczesnej gospodarki. Wartość tego rynku rośnie z roku na rok
- Sztuczna inteligencja zmienia globalną strukturę władzy. Czy Europa zostaje w tyle?
- Sztuczna inteligencja na ratunek samotności. Są naukowcy, którzy tak rysują przyszłość relacji
- Polska ma zyskać dzięki sztucznej inteligencji. AI powinna poprawić produktywność