Sztuczna inteligencja staje się częścią naszej codzienności, a to niesie za sobą zarówno korzyści, jak i wyzwania. W odpowiedzi na rosnące potrzeby zapewnienia bezpieczeństwa i przejrzystości w rozwoju AI, w NASK powstał Ośrodek Badań nad Bezpieczeństwem Sztucznej Inteligencji.
Na czele Ośrodka, który powstał w wyniku przekształcenia Pionu Sztucznej Inteligencji, stanął dr hab. inż. Szymon Łukasik, prof. AGH z Wydziału Fizyki i Informatyki Stosowanej. Zmiana jest podyktowana potrzebą skupienia się konkretnych zagadnieniach związanych z rozwojem AI.
– Główne zadania jakie stoją przed nami to rozwój i wprowadzanie nowych technologii sztucznej inteligencji. Ze szczególną uwagą będziemy skupiać się na uwzględnieniu metod bezpiecznych, transparentnych i wyjaśnialnych w kluczowych obszarach, takich jak administracja publiczna, bezpieczeństwo sieci oraz ochrona cyberprzestrzeni. Ośrodek ma również za zadanie edukować i wspierać społeczeństwo w świadomym korzystaniu z nowoczesnych technologii AI – mówi Szymon Łukasik, dyrektor Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji w NASK.
Sztuczna inteligencja na tapet
Naukowcy z nowego Ośrodka skupiają się na prowadzeniu innowacyjnych badań w obszarze AI, z naciskiem na cyberbezpieczeństwo, które jest dla NASK kluczowe. To droga, która będzie prowadzić do odpowiedzialnego zastosowania technologii sztucznej inteligencji w administracji, czy bezpieczeństwie sieci.
W strukturze Ośrodka znajduje się szereg specjalistycznych zakładów badawczych, w tym:
Zakład Analiz Audiowizualnych i Systemów Biometrycznych, który prowadzi badania nad biometryczną weryfikacją tożsamości oraz przetwarzaniem informacji z wykorzystaniem uczenia głębokiego.
Zakład Inżynierii Lingwistycznej i Analizy Tekstu, zajmujący się przetwarzaniem języka naturalnego i analizą tekstu, w tym wykrywaniem nielegalnych lub wrażliwych treści.
Zakład Nauki o Danych, który rozwija metody analizy dużych zbiorów danych, w tym związanych z cyberbezpieczeństwem oraz zwalczaniem dezinformacji.
Zakład Zastosowań Sztucznej Inteligencji w Medycynie i Analizie Danych Wrażliwych, którego celem jest rozwój systemów AI wspomagających diagnostykę i analizę danych medycznych.
Niebawem prace rozpocznie także Zakład Bezpieczeństwa i Przejrzystości Sztucznej Inteligencji, który będzie koncentrował się na badaniach nad bezpieczeństwem i wyjaśnialnością modeli AI, a także wspiera krajowe i międzynarodowe inicjatywy w tym zakresie. Obecnie trwa budowa zespołu.
NASK liderem i partnerem w rozwoju AI
Naukowcy z NASK wiedzą jak cenna jest współpraca, wymiana wiedzy i doświadczeń. Dlatego Ośrodek Badań nad Bezpieczeństwem Sztucznej Inteligencji będzie stwarzał możliwości realizacji ambitnych projektów badawczych i współpracował z innymi instytucjami naukowymi i badawczo-rozwojowymi, takimi jak np. Akademia Górniczo-Hutnicza w Krakowie, Politechnika Warszawska czy Instytut IDEAS. Ośrodek będzie też zaangażowany w popularyzację wiedzy na temat sztucznej inteligencji, prowadząc liczne inicjatywy edukacyjne i społeczne.
NASK-PIB to instytucja, której misją jest rozwój i bezpieczeństwo sieci teleinformatycznych w Polsce. Instytut odgrywa kluczową rolę w kształtowaniu polityk związanych z bezpieczeństwem cyfrowym i rozwojem społeczeństwa informacyjnego. Ośrodek Badań nad Bezpieczeństwem Sztucznej Inteligencji stanowi integralną część tych działań, odpowiadając na współczesne wyzwania związane z rosnącą obecnością technologii AI w życiu codziennym.
– Rozwój sztucznej inteligencji to nie tylko postęp technologiczny, ale także ogromna odpowiedzialność. Ośrodek Badań nad Bezpieczeństwem Sztucznej Inteligencji NASK jest odpowiedzią na kluczowe wyzwania naszych czasów związane z rozwojem AI. Naszą misją jest nie tylko tworzenie innowacyjnych technologii, ale także zapewnienie, że będą one bezpieczne, przejrzyste i zrozumiałe dla wszystkich. Chcemy wspierać świadome i odpowiedzialne korzystanie z potencjału sztucznej inteligencji – zaznacza Radosław Nielek, dyrektor NASK
Rola NASK w cyberbezpiecznym AI
NASK podejmuje szereg inicjatyw, które zapewniają bezpieczeństwo i ochronę internetu i jego użytkowników przed różnymi cyberzagrożeniami. Prowadzi projekty dotyczące bezpieczeństwa AI. Instytut bierze udział w rozwijaniu – w ramach konsorcjum skupiającym kilka uczelni i instytutów badawczych – Polskiego Dużego Modelu Językowego (PLLuM), odpowiadając głównie za aspekty bezpieczeństwa tworzonych modeli. Czerpiąc z własnego know-how w zakresie wykrywania szkodliwych treści NASK prowadzi także prace nad analizą i detekcją materiałów syntetycznych generowanych z użyciem technik sztucznej inteligencji (tzw. deep fake). Analitycy Instytutu skupiają się w tym obszarze na perspektywie wielomodalnej (tj. równoczesnej analizie dźwięku, wideo i tekstu). Poza pracami badawczymi NASK dba o rozwój młodych talentów – staramy się być przyjaznym miejscem dla doktorantów, początkujących naukowców i inżynierów, którzy stawiają pierwsze kroki w dziedzinie sztucznej inteligencji i AI Safety.