Udostępniony publicznie 30 listopada 2022 model językowy od OpenAI jest rewolucją, ale inną niż się wydaje na pierwszy rzut oka. Sama technologia nie jest ani nowa, ani przełomowa, za to reakcja na nią już tak. Nagła popularność ChatGPT może być wyzwaniem dla naukowców i biznesu zajmującego się rozwojem sztucznej inteligencji. ChatGPT zapytany o siebie samego, do czego najlepiej go wykorzystywać, skromnie odpowie, że jest dobry w generowaniu inspirujących pomysłów na zadany temat,
ale nie należy traktować jego słów bezkrytycznie, jak opinii uznanego eksperta. Mimo to, w ciągu niecałych trzech miesięcy od premiery tego chatbota używano go już m.in. jako pomoc w wydaniu wyroku sądowego, wysłano (testowo) na egzamin na lekarza, na rozmowę o pracę w Google, a w szkołach w kilku stanach USA już go zakazano, ponieważ uczniowie używali go odrabiania prac domowych.
Każdą z tych historii szeroko nagłaśniały media. ChatGPT okazał się nośnym tematem wykraczającym poza świat nowych technologii. Być może budzącym tak wielkie zainteresowanie, bo dającym przeciętnemu “Kowalskiemu” możliwość interakcji ze sztuczną inteligencją. Narzędzie OpenAI wraz z szeregiem aplikacji generujących obrazy na podstawie tekstu, jakie pojawiło się w podobnym czasie również wywołało lawinę komentarzy i dyskusji, chociażby wokół tego czy pozbawi ludzi pracy. To bezprecedensowy moment, w którym tak zaawansowane zagadnienie techniczne zdominowało media i pojawiło się na ustach wszystkich: naukowców, przedsiębiorców, inwestorów i ludzi, którzy do tej pory technologią w ogóle się nie interesowali.
Z nagłą popularnością wiążą się nowe wyzwania. Kilka z nich komentuje dr Tomasz Odrzygóźdź, postdoc w IDEAS NCBR, centrum badawczo-rozwojowym w obszarze sztucznej inteligencji, prowadzący badania dotyczące przeprowadzania rozumowań przez algorytmy AI.
Przyjazny interfejs nowym standardem dla sztucznej inteligencji
Z chwilą pojawienia się komputerów z pulpitem, obsługiwanych myszką, egzemplarze, z którymi rozmawiało się po staremu, czyli przez wpisywanie komend, szybko stały się nieatrakcyjne dla użytkowników. Analogicznie może być teraz ze sztuczną inteligencją. ChatGPT, z którym konwersuje się płynnie i intuicyjnie, jak z drugą osobą, może zawiesić wysoko poprzeczkę twórcom innych narzędzi AI. Czy interfejs no-code stanie się standardem, do którego inni będą musieli dorównać?
– Trzeba zauważyć, że w części przypadków szybciej i wygodniej jest napisać precyzyjną linijkę kodu niż tłumaczyć językiem naturalnym, jaki proces powinien nastąpić. W przeszłości pojawiały się koncepcje – takie jak UML – by programy “rysować” poprzez tworzenie odpowiedniego diagramu. Takie podejście nie sprawdziło się jednak na większą skalę – komentuje dr Tomasz Odrzygóźdź.
– Wiele zależy od przewidzianego zastosowania. W przypadku tworzenia prostej strony internetowej lub wydawania komend w programach do tworzenia prezentacji multimedialnych, interfejs no-code jawi się jako naprawdę dobre rozwiązanie pozwalające zaoszczędzić czas i poszerzyć grupę użytkowników. Niektóre precyzyjne procesy (jak np. sterowanie dronem) wciąż może być łatwiej opisać kodem niż językiem naturalnym. Pamiętajmy jednak, że ChatGPT potrafi również generować kod. Ciężko w chwili obecnej stwierdzić czy precyzja i jakość kodu generowanego przez ChatGPT będzie na tyle duża, by stał się realną alternatywą dla programowania – dodaje ekspert IDEAS NCBR.
Wyścig w miejsce współpracy?
Badania nad sztuczną inteligencją to od lat domena naukowców, co oznacza dzielenie się wiedzą w ramach międzynarodowej współpracy uniwersytetów i ośrodków badawczych. Z drugiej strony technologia ta zastosowana w biznesie może dać ogromną przewagę nad konkurencją. Między oboma tymi nurtami panowała jak dotąd względna równowaga. Czy ogromna popularność ChatGPT może ją zaburzyć? Czy AI może stać się obszarem rywalizacji między państwami i firmami?
– Rywalizacja między państwami, jak i między firmami oczywiście istnieje, ale nie jesteśmy na nią skazani. Widzimy jej efekty, ale nie wiemy co się dzieje za kulisami. Realizacji działań naukowych na pewno sprzyja otwartość, wymiana informacji i to właśnie one prowadzą do przełomowych rozwiązań. Zwłaszcza obecnie, kiedy cały świat zdaje się mówić o ChatGPT, pojawiają się pytania, czy jest on krokiem w stronę ogólnej sztucznej inteligencji. Nie ukrywam, że opinie na temat przybliżania nas do stworzenia sztucznej inteligencji w środowisku naukowym budzą emocje i opinie na ten temat są podzielone, nie ma też jednoznacznej odpowiedzi. Moim zdaniem istnieje możliwość, że modele tego typu nie do końca dają sobie radę z rozumowaniem. Nawet jeśli na pewnym etapie możemy mieć inne wrażenie, należy wziąć pod uwagę istnienie możliwości, że przy tak dużym nasyceniu danymi do trenowania modelu, on po prostu „udaje”, że umie rozumować – komentuje naukowiec.
AI równie stronnicza jak jej twórcy
ChatGPT uparcie odmawia śmiania się z mniejszości etnicznych czy rasowych dyskryminowanych w USA, ale nie miał problemu z napisaniem dowcipu o Polakach – prawdopodobnie osoby trenujące ten model językowy nie uczulili go na tą narodowość, tak jak na inne. To część szerszego zjawiska związanego z projektowaniem. Systemy tworzone przez grupy niereprezentatywne dla całej populacji – np. tylko przez białych zamożnych mężczyzn – mają tendencje do działania zgodnie z punktem widzenia tych grup i niekoniecznie w interesie pozostałych.
– Modele są obciążone uprzedzeniami, ale jest to mniej związane z osobami, które tworzą algorytmy, a w większym stopniu wynika z jakości danych, którymi są zasilane. Jak temu zaradzić? Można próbować je balansować, ale jest to bardzo trudne. Możliwe jest również nauczenie modeli wykrywania “uprzedzonych” danych. Tak stało się w przypadku ChatGPT. Rozwiązaniem tego wyzwania może być większa inkluzywność w zespołach pracujących nad rozwojem sztucznej inteligencji oraz udostępnianie nowych narzędzi z początku tylko w wąskim zakresie, tak by relatywnie niewielka, ale dostatecznie zróżnicowana populacja mogła je przetestować – komentuje ekspert IDEAS NCBR.