Anna Rasińska (KAI): W ostatnim czasie w przestrzeni medialnej zrobiło się głośno na temat sztucznej inteligencji i zagrożeń z nią związanych. Dlaczego dzieje się to właśnie teraz, skoro badania nad AI trwają od wielu lat?
Tomasz Rożek: Wynika to z faktu, że ostatnio informacje te trafiły do bardzo szerokiego grona odbiorców. Duże modele językowe, jakim jest chociażby ChatGPT, powstawały od kilkudziesięciu lat. Natomiast pierwszy raz w historii, w listopadzie ubiegłego roku, pokazano efekt ich pracy szerszemu odbiorcy. Nagle ludzie mogli wypróbować i zobaczyć, że to o czym ktoś mówił, np. podczas konferencji naukowych, lub co widzieliśmy na wielu filmach o tematyce science fiction, jest prawdą.
Jakie niebezpieczeństwa związane są z AI
Media alarmują o wielu zagrożeniach związanych z rozwojem sztucznej inteligencje. Które według Pana są najbardziej realne?
Zagrożeń związanych ze sztuczną inteligencją, jest rzeczywiście bardzo dużo. Im potężniejsze narzędzie, tym większe ryzyko związane z jego zastosowaniem. Każda taka lista będzie subiektywna, z czym musimy się pogodzić. To, że ja widzę gdzieś zagrożenia, nie znaczy, że ktoś inny będzie je widział dokładnie w tym samym miejscu.
Dla mnie największym zagrożeniem jest kwestia kontaktów międzyludzkich. (...)
Dziś ludzie, którzy kontaktują się ze sobą, nawiązują relacje. Komunikacja przez media społecznościowe sprawia, że między nimi jest pewien filtr cyfrowy. Może i takie osoby czasami spotkają się w świecie realnym, ale w sumie taka rozmowa im wystarczy. Moja obawa jest taka, że niedługo nie będzie już nawet tego filtra cyfrowego, a po drugiej stronie człowieka zastąpi maszyna. Program, który zawsze ma dla nas czas, zawsze będzie w dobrym nastroju, będzie nam mówił to co chcemy usłyszeć, dlatego, że się nas uczy i jest w tym bardzo dobry. (...)
Co będzie kiedy połączymy model językowy jak np. Chat GPT, z tą umiejętnością uczenia się nas? Moja obawa jest taka, że za chwilę spora część z nas nie będzie się kontaktowała z innymi ludźmi. A patrząc historycznie, wydaje mi się, że nic człowieka tak nie definiuje i nie rozwija, jak właśnie konfrontacja z drugim człowiekiem. Obawiam się momentu, w którym tego zabraknie.
Niepokoją mnie także kwestie związane z prawami autorskimi. Modele językowe kradną treści i nie linkują źródła, nie odsyłają do strony internetowej. One ją przeczesują, kradną treść, przemielają i wyrzucają jako swoją. W tym kontekście trzeba na nowo zdefiniować system edukacji, kwestie bezpieczeństwa, prywatności, to są ogromne wyzwania. Nie wiadomo, które dane są wykorzystywane i w jaki sposób. Nie wiemy co duży model językowy robi np. z naszymi prywatnymi danymi. Oczywiście tych zagrożeń jest jeszcze dużo więcej.
Czy człowiek przestanie być potrzebny?
Niektórzy naukowcy uważają, że przyspieszająca rewolucja AI doprowadzi do momentu, w którym jako ludzie nie będziemy już potrzebni. Czy widzi Pan możliwość realizacji takiego scenariusza?
Nie podzielam argumentu, że za chwilę ludzie staną się zbędni. Co by to miało to w praktyce oznaczać? Czy jeżeli ktoś nie pracuje, jest zbędny? Nie definiujemy człowieka tylko przez pracę, którą wykonuje. Człowiek nie jest na ziemi wyłącznie po to by pracować i w momencie gdy nie pracuje, gdy mogą go zastąpić maszyny, nagle staje się zbędny.
Jednak realnym problemem będzie fakt, że przez rozwój technologii wiele zawodów i profesji zniknie.
(...) Z pewnością powstaną inne. Może te zmiany zmobilizują nas na przykład do tego, żeby więcej tworzyć... Nawet gdyby się okazało, że nowe profesje nie powstaną, być może w przyszłości będziemy po prostu inaczej funkcjonować, np. bez pracy od rana do nocy. Może te zmiany dadzą nam kopa do stworzenia nowego prawa pracy, w którym tydzień pracy będzie trwał 4 dni, a nie 5.
Moralność sztucznej inteligencji
Kolejny całkiem aktualnym problemem jest kwestia moralności AI. Często mówi Pan o tym podczas wykładów na temat sztucznej inteligencji. Wielu ludzi ma problem z rozróżnieniem tego co jest złe, a co dobre. Jak tę wiedzę przekazać algorytmowi?
(...) Po pierwsze, nie ma czegoś takiego jak decyzja uniwersalnie dobra. Widać to na przykładzie pojazdów elektrycznych. Wyobraźmy sobie sytuację, w której ktoś wyskakuje przed maskę takiego samochodu, co algorytm ma zrobić? Dobra decyzja dla tego kto siedzi w środku samochodu, to zła decyzja dla tego, który jest wewnątrz. Nie wchodząc w kwestie moralności, obiektywnego dobra i zła, jeżeli mówimy o decyzjach dnia codziennego, one bardzo często są waśnie takie. Ta sama decyzja jest dla jednego dobra, a dla drugiego zła. My jako ludzie podejmujemy codziennie setki różnych decyzji. Jedne są dobre inne złe. Natomiast nie ma pomysłu, jak nauczyć algorytm działania zgodnie z tą samą logiką, z którą działa człowiek. Póki co nie ma pomysłu jak to zrobić, jest to duże wyzwanie. Było już sporo różnych eksperymentów myślowych, projektów badawczych, w których próbowano nauczyć maszyny moralności i to zawsze wychodziło źle. Jest to jedna z tych rzeczy, którą trzeba przemyśleć i to zdrowo.
Medyczna AI
W jednej z Pańskich publikacji pojawia się temat zastosowania AI w medycynie przyszłości m.in. w badaniach nad nowymi antybiotykami, mógłby Pan przybliżyć tę kwestię?
Ogromnym problemem dzisiejszego świata, jest to, że mamy coraz więcej bakterii odpornych na antybiotyki. Bakterie te uodparniają się szybciej, niż zdążymy znaleźć na nie antybiotyki, bo znalezienie ich to bardzo długi i kosztowny proces.
Natomiast stworzenie algorytmu, który mógłby pracować na podstawie badań farmaceutów zajmujących się poszukiwaniem skutecznych antybiotyków, okazało się dobrym pomysłem. Taki program był w stanie przeszukiwać ogromne bazy danych naukowych w poszukiwaniu cząsteczek chemicznych, które mogą być antybiotykami i rzeczywiście pierwsze takie eksperymenty pokazywały, że dosłownie w ciągu dwóch, trzech dni, algorytm może przeszukać i przetestować wirtualnie kilka milionów cząsteczek chemicznych. Następnie wyłowić z nich te, które mogą być skutecznymi antybiotykami. Technologia AI może być ogromną pomocą dla naukowców przy analizie dużych baz danych. Na tym przykładzie widać, że plusów jest równie dużo jak potencjalnych zagrożeń.
Regulacje prawne związane z AI
Co Pan myśli o apelu o zatrzymanie prac nad rozwojem AI, czy jest to w ogóle możliwe na tym etapie?
To coś, czego nie da się zrealizować. Z technologicznego punktu widzenia, to zatrzymanie jest niewykonalne, bo nie mamy do czynienia z jednym modelem, który jest na jednym komputerze. Mówimy o sytuacji, w której mniej zaawansowane modele jak ChatGPT, mogą być na każdym komputerze. Nierealne jest narzucenie czegoś wszystkim komputerom na naszej planecie. Poza tym autorami tego apelu są ludzie, którzy sami rozwijali tę technologię i zainwestowali w nią dużo pieniędzy.
Czyli najlepiej byłoby jak najszybciej wprowadzić regulacje dotyczące korzystania ze sztucznej inteligencji?
Bez wątpienia muszą powstać regulacje dotyczące sztucznej inteligencji, ale nie sądzę, aby ktokolwiek miał pomysł, jak powinny one wyglądać. Będąc na początku jakiejś drogi, wiele rzeczy możemy sobie wyobrazić, natomiast wiedza to zupełnie inna kwestia.
Rozmawiała Anna Rasińska / Warszawa