Podpisany m.in. przez Elona Muska czy Steve’a Wozniaka list Future of Life Institute – i zawarty w nim postulat mówiący o wstrzymaniu prac nad sztuczną inteligencją na okres 6 miesięcy – stał się przyczynkiem do rozpoczęcia jeszcze szerszej dyskusji na temat rozwoju AI. Zachęcamy do zapoznania się z komentarzami w tej sprawie polskich badaczy zajmujących się sztuczną inteligencją (poniżej).
Dr hab. Piotr Sankowski, prof. UW, prezes IDEAS NCBR:
– Postulat zawarty w liście Future of Life Institute – aby laboratoria na całym świecie pracujące nad najbardziej zaawansowanymi modelami AI umówiły się na wstrzymanie prac na 6 miesięcy i czekały, co w temacie ustali międzynarodowy panel – jest w praktyce zupełnie nierealny. Trzeba pamiętać, że już teraz w wielu zastosowaniach sztucznej inteligencji prym wiodą Chiny. Moim zdaniem nie należy się spodziewać, że laboratoria pracujące w tym kraju zaprzestaną badań nad tą przełomową technologią, która nie tylko lepiej niż człowiek radzi sobie w obszarze NLP (przetwarzaniu języka naturalnego), ale też coraz częściej znajduje zastosowanie w obronności.
Poza tym, w całej w sferze nowych technologii i technik obliczeniowych, postęp następuje wykładniczo. Modele językowe, które 2-3 lata temu były przełomowe i wymagały ogromnych maszyn, teraz można właściwie uruchomić na domowym komputerze. Trzeba się spodziewać, że podobnie będzie z modelami tworzonymi teraz. Dlatego moim zdaniem blokowanie prac nie ma sensu. Musimy przygotowywać się na to, że rozwiązania tak zaawansowane jak GPT-4, pewnego dnia będą stosowane w praktycznie każdej aplikacji. Wcześniej czy później to nastąpi.
Trzeba też pamiętać, że potrzeba audytu, jak działa AI i co potrafi, o której mówi Future of Life Institute, w niektórych częściach świata została zauważona dużo wcześniej niż w innych. Komisja Europejska już w zeszłym roku przyjęła tak zwany “AI Act”, który prawnie ureguluje zasady rozwoju oraz zastosowania sztucznej inteligencji. Natomiast, rzeczywiście z perspektywy reszty świata, włączając w to USA, jest jasne, że takie regulacje są potrzebne. Należy się spodziewać, że zostaną przyjęte w USA w tym roku. W Polsce powinniśmy raczej zastanawiać się, czy unijny AI Act jest wystarczający i jak przekuć go w praktykę, łącząc z polskimi przepisami prawnymi. Na pewno IDEAS NCBR mógłby pomóc we wdrażaniu go w Polsce. Perspektywa praktyków jest niezwykle istotna, tak aby propozycje regulacji nie były oderwane od rzeczywistości.
Dr hab. Piotr Miłoś, prof. IMPAN, lider zespołu badawczego w IDEAS NCBR:
– Po opublikowaniu listu w społeczności AI rozgorzała gorąca dyskusja. Podniosły się głosy krytyczne. Jeden z ojców rewolucji deep learningowej – Yann LeCun, na Twitterze zastanawiał się głośno, czy w 1440 roku byłoby ogłoszone podobne moratorium na użycie prasy drukarskiej. I odpowiada, że owszem, wynalazek druku zniszczył społeczeństwo i … pozwolił na zbudowanie nowego, lepszego.
Panuje zgoda, że technologie oparte na dużych modelach językowych (large language models – inaczej LLM) zmienią gruntownie sposób, w jaki będziemy używać komputerów. Pytanie, jaka będzie dynamika tych zmian, czy będzie to technologia przypominająca ‘energię atomową’ (pesymiści), czy może raczej ‘internet’ (optymiści). Nie wiemy. Osobiście przychylam się do tej drugiej tezy. Sądzę, że za kilka lat wykorzystanie tych technologii będzie nieodłączną częścią naszej egzystencji – stanie się wręcz “naturalne”. Nie oznacza, to bynajmniej, że rozwój AI nie stawia przed nami wyzwań. Możliwość łatwego tworzenia fake newsów może stanowić jedno z takich niebezpieczeństw. Technologia nie powinna się rozwijać lekceważąc społeczne obawy, dlatego tak ważny jest dialog między naukowcami, etykami oraz regulatorami, aby upewnić się, że tego typu niebezpieczeństwom można zapobiec.