– W dynamicznym środowisku bankowości, technologie oparte na sztucznej inteligencji i uczeniu maszynowym stają się nieodłącznym elementem transformacji cyfrowej. Otwierają one nowe możliwości, ale również stawiają przed nami wyzwania, które wymagają uwagi i ostrożnego podejścia – zauważa Waldemar Szczepański, Z-ca Dyrektora Banku Pocztowego, odpowiadający za rozwój Banku w obszarze technologii chmurowych i sztucznej inteligencji.
Wykorzystanie sztucznej inteligencji (AI) oraz uczenia maszynowego w bankowości otwiera przed sektorem finansowym szereg szans, ale równocześnie stawia przed nim istotne wyzwania. Kluczowe staje się odpowiedzialne podejście instytucji finansowych do implementacji nowych technologii, uwzględniające zarówno potencjał, jak i ryzyka z nimi związane. Skupiając się na możliwościach, jakie niesie rozwój AI dla rynków finansowych, należy podkreślić pięć najważniejszych aspektów. Po pierwsze – personalizacja i analiza danych. Możliwość przetwarzania dużej ilości danych umożliwia bankom tworzenie spersonalizowanych analiz transakcji, pozwala ocenić ryzyko kredytowe oraz wykrywać oszustwa. Drugim aspektem jest automatyzacja rutynowych działań, która prowadzi do obniżenia kosztów operacyjnych oraz zwiększenia efektywności procesów wewnętrznych. Obsługa klienta to kolejny obszar w jakim AI odgrywa znaczną rolę. Czatboty i voiceboty umożliwiają automatyzację obsługi klientów (selfservice), co przekłada się na zwiększenie dostępności usług i poprawę doświadczeń klientów. Sztuczna inteligencja również może dostarczać w trybie online i offline ocenę sentymentu rozmowy z klientem, pozwalając na lepsze dopasowania dostarczanych usług. Co więcej, modele językowe pozwalają budować spersonalizowane usługi i oferty dla klientów, które później są wykorzystywane przez doradców bankowych.
Używanie sztucznej inteligencji w sektorze finansowym niesie za sobą wiele wymienionych już korzyści, ale równocześnie wiąże się z zagrożeniami, które mogą wpłynąć na stabilność i bezpieczeństwo rynku finansowego. Najważniejszą do poruszenia kwestią jest bezpieczeństwo danych. Dlatego w bankach działają zespoły zajmujące się bezpieczeństwem danych, których głównym zadaniem jest zachowanie najwyższych standardów jakości i bezpieczeństwa, by wyeliminować płynące z korzystania z AI ryzyka, np. wycieku danych oraz naruszenia prywatności klientów, co stanowiłoby istotne zagrożenie nie tylko dla banków, ale także dla samych klientów. Kolejnym możliwym kłopotem dla branży jest podszywanie się i kradzież tożsamości. Technologia AI niesie ze sobą szereg możliwości w spreparowaniu np. głosu czy grafiki, dlatego wymaga skutecznych mechanizmów ochrony przed potencjalnymi oszustami.
Dlatego instytucje finansowe muszą przejąć pełną odpowiedzialność za dane dostarczane przez sztuczną inteligencję. Zmiany modelu mogą mieć znaczący wpływ na obsługiwane procesy – ryzyko, podejmowane decyzje kredytowe, analizę fraudów itp. Zagrożenie i ryzyko wiąże się nie tylko z możliwościami jakie niesie sztuczna inteligencja, ale także z potencjalnym zaniechaniem lub opóźnieniem wdrożenia AI w instytucjach finansowych. Działanie to może spowodować utratę korzyści ze stosowania sztucznej inteligencji, która ma większy potencjał od standardowych usprawnień procesów wewnętrznych.
Istotnym jest, aby instytucje finansowe podejmowały odpowiednie środki ostrożności i monitorowały ryzyko związane z wykorzystaniem AI. Konieczny jest również skuteczny nadzór i kontrola systemów opartych na AI.
Robotyzacja oraz wykorzystanie nowych technologii do przesyłania raportów
Systemy oparte na sztucznej inteligencji mogą zautomatyzować proces przygotowywania i przesyłania raportów do poszczególnych instytucji. Dzięki zaawansowanym algorytmom i możliwościom przetwarzania danych, są one w stanie efektywnie analizować informacje, generować raporty, a nawet automatycznie wysyłać je do odpowiednich adresatów.
W ten sposób eliminują konieczność ręcznego tworzenia i wysyłania raportów, co znacząco oszczędza czas i zasoby ludzkie. Należy podkreślić, iż roboty mogą wspierać ludzi, ale nie zastąpią ich całkowicie. Z naszych doświadczeń m.in. z realizacji projektu Lady Robot w Banku Pocztowym wynika, że kluczem jest znalezienie równowagi pomiędzy zastosowaniem automatyzacji, a wiedzą i umiejętnościami człowieka. Wyzwaniem jest także odpowiedzialność za przygotowanie i dostarczanie danych, która na końcu zawsze należy do właściciela modelu.
Odpowiedzialność może rozkładać się na kilka poziomów: m.in. odpowiedzialność za jakość i niezawodność modelu oraz odpowiedzialność za przygotowanie gotowej treści. Dodatkowo należy jeszcze uwzględnić aspekt odpowiedzialności za źródła danych i prawa autorskie. W związku z tym, konieczne jest ustalenie klarownych polityk i procedur dotyczących odpowiedzialności za wygenerowane treści, aby zapewnić bezpieczeństwo i zgodność z obowiązującym prawem.