Tomasz Rożek, dziennikarz „Gościa Niedzielnego”, założyciel Fundacji „Nauka. To lubię” oraz kanału na YouToubie o tej samej nazwie, w rozmowie z KAI opowiedział m.in. o zagrożeniach związanych z rozwojem sztucznej inteligencji i o próbach nauczenia AI moralności.
Anna Rasińska (KAI): W ostatnim czasie w przestrzeni medialnej zrobiło się głośno na temat sztucznej inteligencji i zagrożeń z nią związanych. Dlaczego dzieje się to właśnie teraz, skoro badania nad AI trwają od wielu lat?
Tomasz Rożek: Wynika to z faktu, że ostatnio informacje te trafiły do bardzo szerokiego grona odbiorców. Duże modele językowe, jakim jest chociażby ChatGPT, powstawały od kilkudziesięciu lat. Natomiast pierwszy raz w historii, w listopadzie ubiegłego roku, pokazano efekt ich pracy szerszemu odbiorcy. Nagle ludzie mogli wypróbować i zobaczyć, że to o czym ktoś mówił, np. podczas konferencji naukowych, lub co widzieliśmy na wielu filmach o tematyce science fiction, jest prawdą.
Badania nad rozwojem AI to kwestia dziesiątków lat pracy. Natomiast w ostatnich miesiącach, wyniki tych prac zostały pokazane i każdy mógł wypróbować możliwości modeli językowych.
Przeczytaj: ChatGPT nie zastąpi dziennikarstwa jakościowego
Media alarmują o wielu zagrożeniach związanych z rozwojem sztucznej inteligencje. Które według Pana są najbardziej realne?
- Zagrożeń związanych ze sztuczną inteligencją, jest rzeczywiście bardzo dużo. Im potężniejsze narzędzie, tym większe ryzyko związane z jego zastosowaniem. Każda taka lista będzie subiektywna, z czym musimy się pogodzić. To, że ja widzę gdzieś zagrożenia, nie znaczy, że ktoś inny będzie je widział dokładnie w tym samym miejscu.
Dla mnie największym zagrożeniem jest kwestia kontaktów międzyludzkich. Już dziś mamy całą rzeszę ludzi, głównie młodych, którzy z różnych względów nie komunikują się z drugim człowiekiem bezpośrednio. Porozumiewają się wyłącznie przez media społecznościowe. Dla wielu młodych ludzi jest to jedyny sposób komunikacji z drugim człowiekiem. Obawiam się, że już niedługo po drugiej stronie nie będzie człowieka, tylko maszyna.
Dziś ludzie, którzy kontaktują się ze sobą, nawiązują relacje. Komunikacja przez media społecznościowe sprawia, że między nimi jest pewien filtr cyfrowy. Może i takie osoby czasami spotkają się w świecie realnym, ale w sumie taka rozmowa im wystarczy. Moja obawa jest taka, że niedługo nie będzie już nawet tego filtra cyfrowego, a po drugiej stronie człowieka zastąpi maszyna. Program, który zawsze ma dla nas czas, zawsze będzie w dobrym nastroju, będzie nam mówił to co chcemy usłyszeć, dlatego, że się nas uczy i jest w tym bardzo dobry. To nie jest żadna nowość, przecież każdy program np. do streamowania wideo, podpowiada co może nas zaciekawić. Na podstawie wcześniejszych wyborów uczy się preferencji swojego użytkownika i proponuje podobne treści. Nawet program do słuchania muzyki pokazuje propozycje utworów, które mogą nam się spodobać. Skąd to wie? Bo się nas nauczył.
Tak działa bardzo wiele rzeczy wokół nas. Co będzie kiedy połączymy model językowy jak np. Chat GPT, z tą umiejętnością uczenia się nas? Moja obawa jest taka, że za chwilę spora część z nas nie będzie się kontaktowała z innymi ludźmi. A patrząc historycznie, wydaje mi się, że nic człowieka tak nie definiuje i nie rozwija, jak właśnie konfrontacja z drugim człowiekiem. Obawiam się momentu, w którym tego zabraknie.
Niepokoją mnie także kwestie związane z prawami autorskimi. Modele językowe kradną treści i nie linkują źródła, nie odsyłają do strony internetowej. One ją przeczesują, kradną treść, przemielają i wyrzucają jako swoją. W tym kontekście trzeba na nowo zdefiniować system edukacji, kwestie bezpieczeństwa, prywatności, to są ogromne wyzwania. Nie wiadomo, które dane są wykorzystywane i w jaki sposób. Nie wiemy co duży model językowy robi np. z naszymi prywatnymi danymi. Oczywiście tych zagrożeń jest jeszcze dużo więcej.
Niektórzy naukowcy uważają, że przyspieszająca rewolucja AI doprowadzi do momentu, w którym jako ludzie nie będziemy już potrzebni. Czy widzi Pan możliwość realizacji takiego scenariusza?
- Ja nie podzielam tak czarnych wizji. Natomiast zostawiam przestrzeń na to, że w bardzo odległej przyszłości może się tak zdarzyć. W dającej się przewidzieć przyszłości prawdopodobieństwo takiego scenariusza jest znikome.
Nie podzielam argumentu, że za chwilę ludzie staną się zbędni. Co by to miało to w praktyce oznaczać? Czy jeżeli ktoś nie pracuje, jest zbędny? Nie definiujemy człowieka tylko przez pracę, którą wykonuje. Człowiek nie jest na ziemi wyłącznie po to by pracować i w momencie gdy nie pracuje, gdy mogą go zastąpić maszyny, nagle staje się zbędny.
Jednak realnym problemem będzie fakt, że przez rozwój technologii wiele zawodów i profesji zniknie.
- Oczywiście, ta technologia, ten zbiór technologii, wykosi całkiem sporą część zawodów. Jak dużą część? Tego nie wiem. Są różne szacunki na ten temat, ale rzeczywiście niektóre zawody będą wykonywane przez algorytmy.
Natomiast z pewnością powstaną inne. Może te zmiany zmobilizują nas na przykład do tego żeby więcej tworzyć... Nawet gdyby się okazało, że nowe profesje nie powstaną, być może w przyszłości będziemy po prostu inaczej funkcjonować, np. bez pracy od rana do nocy. Może te zmiany dadzą nam kopa do stworzenia nowego prawa pracy, w którym tydzień pracy będzie trwał 4 dni, a nie 5.
Bardzo trudno mi na dziś o tym myśleć i prognozować, dlatego, że dotykamy dość abstrakcyjnych kwestii. Mówimy o przyszłości, która być może się zdarzy, być może nie, ale jest to daleka przyszłość, trudna do przewidzenia.
Przeczytaj też: Sztuczna inteligencja. Zagrożenie na wyciągnięcie ręki?
Kolejny całkiem aktualnym problemem jest kwestia moralności AI. Często mówi Pan o tym podczas wykładów na temat sztucznej inteligencji. Wielu ludzi ma problem z rozróżnieniem tego co jest złe, a co dobre. Jak tę wiedzę przekazać algorytmowi?
- To faktycznie duży problem. Przede wszystkim ciężko powiedzieć czym właściwie jest moralność. Nie potrafimy zdefiniować tego pojęcia. Było mnóstwo projektów, badań na ten temat. Nie jest to nowy temat. Wielu naukowców pracuje nad tym problemem. Skoro algorytmy mają w przyszłości, podejmować kluczowe decyzje, jak nauczyć je odróżniania dobra od zła? Co zrobić żeby podejmowały dobre decyzje?
Po pierwsze, nie ma czegoś takiego jak decyzja uniwersalnie dobra. Widać to na przykładzie pojazdów elektrycznych. Wyobraźmy sobie sytuację, w której ktoś wyskakuje przed maskę takiego samochodu, co algorytm ma zrobić? Dobra decyzja dla tego kto siedzi w środku samochodu, to zła decyzja dla tego, który jest wewnątrz. Nie wchodząc w kwestie moralności, obiektywnego dobra i zła, jeżeli mówimy o decyzjach dnia codziennego, one bardzo często są waśnie takie. Ta sama decyzja jest dla jednego dobra, a dla drugiego zła. My jako ludzie podejmujemy codziennie setki różnych decyzji. Jedne są dobre inne złe. Natomiast nie ma pomysłu, jak nauczyć algorytm działania zgodnie z tą samą logiką, z którą działa człowiek. Póki co nie ma pomysłu jak to zrobić, jest to duże wyzwanie. Było już sporo różnych eksperymentów myślowych, projektów badawczych, w których próbowano nauczyć maszyny moralności i to zawsze wychodziło źle. Jest to jedna z tych rzeczy, którą trzeba przemyśleć i to zdrowo.
Pozostaje jeszcze kwestia tego kto mógłby się podjąć tak trudnego zadania, eksperci z jakich dziedzin...
- Nie mam pojęcia, natomiast wiem, że były robione eksperymenty, w ramach których próbowano stworzyć coś w rodzaju uniwersalnej moralności, czegoś co można by przetransferować do algorytmu. Wcześniej czy później kończyło się to w tym samym miejscu – że moralność należy określić statystycznie, a przecież nie jest tak, że większość ma zawsze racje. Kwestia dobra i zła nie wynika z rachunku statystycznego.
Czytaj również: Nawet sztuczna inteligencja tego nie wymyśli
W jednej z Pańskich publikacji pojawia się temat zastosowania AI w medycynie przyszłości m.in. w badaniach nad nowymi antybiotykami, mógłby Pan przybliżyć tę kwestię?
- Ogromnym problemem dzisiejszego świata, jest to, że mamy coraz więcej bakterii odpornych na antybiotyki. Bakterie te uodparniają się szybciej niż zdążymy znaleźć na nie antybiotyki, bo znalezienie ich to bardzo długi i kosztowny proces.
Natomiast stworzenie algorytmu, który mógłby pracować na podstawie badań farmaceutów zajmujących się poszukiwaniem skutecznych antybiotyków, okazało się dobrym pomysłem. Taki program był w stanie przeszukiwać ogromne bazy danych naukowych w poszukiwaniu cząsteczek chemicznych, które mogą być antybiotykami i rzeczywiście pierwsze takie eksperymenty pokazywały, że dosłownie w ciągu dwóch, trzech dni, algorytm może przeszukać i przetestować wirtualnie kilka milionów cząsteczek chemicznych. Następnie wyłowić z nich te, które mogą być skutecznymi antybiotykami. Technologia AI może być ogromną pomocą dla naukowców przy analizie dużych baz danych. Na tym przykładzie widać, że plusów jest równie dużo jak potencjalnych zagrożeń.
Co Pan myśli o apelu o zatrzymanie prac nad rozwojem AI, czy jest to w ogóle możliwe na tym etapie?
- To coś czego nie da się zrealizować. Z technologicznego punktu widzenie, to zatrzymanie jest niewykonalne, bo nie mamy do czynienia z jednym modelem, który jest na jednym komputerze. Mówimy o sytuacji, w której mniej zaawansowane modele jak ChatGPT, mogą być na każdym komputerze. Nierealne jest narzucenie czegoś wszystkim komputerom na naszej planecie. Poza tym autorami tego apelu są ludzie, którzy sami rozwijali tę technologię i zainwestowali w nią dużo pieniędzy.
Czyli najlepiej byłoby jak najszybciej wprowadzić regulacje dotyczące korzystania ze sztucznej inteligencji?
- Bez wątpienia muszą powstać regulacje dotyczące sztucznej inteligencji, ale nie sądzę, aby ktokolwiek miał pomysł, jak powinny one wyglądać. Będąc na początku jakiejś drogi, wiele rzeczy możemy sobie wyobrazić, natomiast wiedza to zupełnie inna kwestia. Na tym polega trudność w komentowaniu nowych technologii. Tak naprawdę nikt nie wie jak mogą się one dalej rozwinąć. To sprawa z jednej strony bardzo ciekawa, ale i niepokojąca. Zobaczymy co przyniesie przyszłość.
Dziękuję za rozmowę.
aktualna ocena | |
głosujących | |
Ocena |
bardzo słabe |
słabe |
średnie |
dobre |
super |
- poinformował portal Ukrainska Prawda, powołując się na źródła.
Według przewodniczącego KRRiT materiał zawiera treści dyskryminujące i nawołujące do nienawiści.
W perspektywie 2-5 lat można oczekiwać podwojenia liczby takich inwestycji.