Jak wynika z opublikowanego przez firmę Progress raportu Data Bias: The Hidden Risk of AI, 66 proc. przedsiębiorstw zmierza do zwiększenia udziału sztucznej inteligencji w swoich procesach decyzyjnych. Plany te wymagają skrupulatnej dbałości o jakość danych, z których czerpie AI. Oprócz ich zgodności z faktami oraz poprawności językowej, pod uwagę należy również brać aspekt etyczny. Jego pominięcie może sprawić, że proponowane przez sztuczną inteligencje rozwiązania będą bazować na błędnych przeświadczeniach, nie zaś faktach, narażając firmę na straty.
Odpowiedzialne zarządzanie AI obejmuje m.in. ustanowienie standardów gromadzenia danych oraz zapobieganie dyskryminacji. Przedsiębiorstwa planujące zwiększenie roli sztucznej inteligencji w swoich procesach decyzyjnych powinny zwrócić uwagę na te aspekty. W przeciwnym razie narażą się na konsekwencje wizerunkowe oraz finansowe.
Trzy filary etyczności AI
Etyczne korzystanie ze sztucznej inteligencji bazuje na trzech głównych filarach – sprawiedliwości, odpowiedzialności oraz przejrzystości. Każdy z nich ma na celu eliminowanie innego typu nadużyć. Pierwszy z nich – sprawiedliwość – odnosi się przede wszystkim do ryzyka tendencyjności danych, z którym powiązane jest użytkowanie sztucznej inteligencji w obrębie firmy.
– Zdarza się, że sztuczna inteligencja, jeżeli trenowano ją w hermetycznym środowisku, na niewystarczająco różnorodnych danych, zaczyna przejawiać uprzedzenia do grup, do których nie należą pracujący nad nią specjaliści – wyjaśnia Jakub Andrzejewski, Business Development Manager na Polskę w firmie Progress, która jest dostawcą rozwiązań do tworzenia aplikacji biznesowych, wdrażania ich i zarządzania nimi. – W praktyce oznacza to, że jeżeli personel projektujący model AI składa się np. głównie z mężczyzn, możliwym jest, że powstałe rozwiązanie będzie wykazywać stronniczość względem kobiet. To istotny problem. Zaburza on skuteczność sztucznej inteligencji, m.in. jako narzędzia wykorzystywanego przez działy kard. Może ona bowiem automatycznie odrzucać kandydatury wykwalikowanych specjalistów jedynie z uwagi na ich płeć, rasę lub inne, nieuwzględnione w procesie jej projektowania czynniki. Stronniczość danych jest również dużym zagrożeniem w przypadku instytucji finansowych. Tam AI może być wykorzystywana jako wsparcie w procesie wykrywania oszustw. Powstaje więc ryzyko, że model sztucznej inteligencji, charakteryzujący się konkretnymi uprzedzeniami, zacznie generować alerty o podejrzanych aktywnościach, sugerując się wyłącznie przynależnością użytkowników do mniejszościowych grup.
Odpowiedzialność – drugi filar etycznego użytkowania sztucznej inteligencji – koncentruje się na ścisłym udziale specjalistów w procesach podejmowania decyzji przez AI. Firmy powinny wyznaczyć w tym celu odpowiednie osoby lub podmioty. Mogą one np. prowadzić dzienniki poświęcone otrzymywanym od sztucznej inteligencji odpowiedziom. Dzięki temu, kiedy AI podejmie niewłaściwą decyzję, możliwe będzie prześledzenie procesów, które doprowadziły ją do takich wniosków oraz dokonanie korekty.
Przejrzystość, czyli trzeci filar etycznego wykorzystywania możliwości sztucznej inteligencji, koncentruje się przede wszystkim na dbałości o to, aby sposób działania systemów AI był czytelny i zrozumiały dla wszystkich użytkowników. Muszą oni rozumieć w jaki sposób podejmowane są decyzje, aby móc je ocenić lub zakwestionować. Dzięki zastosowaniu się do tych zasad, oferowane przez sztuczną inteligencję możliwości będą dostępne oraz funkcjonalne dla wszystkich.
Odpowiedzialne użytkowanie AI w praktyce
Sztuczna inteligencja powiązana jest z wieloma kluczowymi aspektami funkcjonowania przedsiębiorstwa. Jednym z nich jest prywatność. Systemy AI gromadzą oraz poddają analizie znaczne ilości danych użytkowników, takich jak lokalizacja czy wzorce zachowań. Etycznym oraz prawnym obowiązkiem firmy korzystającej z oferowanych przez sztuczną inteligencję możliwości, jest upewnienie się, że nie popełnia ona w ten sposób żadnych nadużyć. Skutecznym tego wskaźnikiem są istniejące regulacje prawne, takie jak Rozporządzenie o Ochronie Danych Osobowych (RODO).
– Znajomość regulacji związanych z AI jest kluczowa dla firm chcących korzystać z tego rozwiązania aktywnie i odpowiedzialnie. Przedsiębiorstwa muszą trzymać rękę na pulsie i zachować duży poziom elastyczności w swoich planach oraz praktykach użytkowania AI, aby być przygotowanymi na ewentualne zmiany w przepisach – zaznacza Jakub Andrzejewski.
Sztuczna inteligencja powiązywana jest również z aspektem bezpieczeństwa. Bazujące na niej systemy mogą monitorować aktywność sieciową w czasie rzeczywistym, analizując aktywności użytkowników w poszukiwaniu nietypowych lub podejrzanych działań. Tendencyjność danych stwarza ryzyko generowania fałszywych alertów, bazujących na uprzedzeniach względem konkretnych grup. Tego typu sytuacja jest szkodliwa nie tylko w kontekście etycznym, ale również pragmatycznym. Przez powstałe w wyniku tendencyjności danych fałszywe ostrzeżenia o nadużyciach powstaje ryzyko, że firmowi specjaliści ds. cyberbezpieczeństwa lub zgodności z regulacjami będą marnować swój czas oraz zasoby, które mogliby poświęcić na walkę z rzeczywistymi zagrożeniami.
Etyczne zarządzanie sztuczną inteligencją jest kluczowe, aby AI mogła przynosić korzyści społeczeństwu, jednocześnie minimalizując powiązane z nią potencjalne ryzyko. Dzięki odniesieniom do filarów sprawiedliwości, odpowiedzialności oraz przejrzystości firmy zyskują możliwość pełniejszego i skuteczniejszego wykorzystania potencjału AI.