Podczas gdy wykorzystywanie sztucznej inteligencji (AI) z korzyścią dla konsumentów i społeczeństwa deklarują niemal trzy na cztery firmy, to w zapewnienia te wierzy jedynie 44% legislatorów, regulatorów i ekspertów – wynika z globalnego badania „AI Ethics Study” przeprowadzonego przez EY i The Future Society. To nie jedyny rozdźwięk między tymi dwiema grupami objętymi badaniem. Rozbieżne opinie dotyczą również kwestii legislacyjnych i ryzyk dostrzeganych na gruncie etycznym.
Bezstronność i unikanie uprzedzeń to zagadnienie natury etycznej, które jest zdecydowanie najważniejsze (otrzymało w badaniu 3.14 pkt)[1] zdaniem decydentów, pytanych o najważniejsze do rozstrzygnięcia kwestie etyczne przy wykorzystaniu sztucznej inteligencji w rozwiązaniach rozpoznających twarz (na przykład w celu weryfikacji na lotniskach, w bankach czy hotelach). Nie jest to jednak kwestia, która znalazła się na liście priorytetów firm. W ich zestawieniu najbardziej istotnych wyzwań, kwestie uprzedzeń i bezstronności znalazły się dopiero na szóstym miejscu (1.34 pkt). Najistotniejsza w opinii firm jest natomiast prywatność i prawa do danych. To zagadnienie znalazło się również wysoko – bo na drugim miejscu – wśród decydentów, choć zdecydowanie inaczej rozłożyły się punktacje. Decydenci ocenili ważność tej kwestii na 3.09 pkt a firmy na 1.88 pkt.
Bezpieczeństwo i ochrona to z kolei druga pod względem ważności etycznych kwestii, które zdaniem firm wymagają uwagi przy rozwiązaniach wykorzystujących sztuczną inteligencję do rozpoznawania twarzy. Pierwszą trójkę priorytetów dla obu badanych grup zamyka transparentność.
Firmy i decydenci różnią się jednak nie tylko wskazaniami najważniejszych do uregulowania kwestii w zakresie zastosowania sztucznej inteligencji, ale w badaniu widać również, że inne jest samo podejście do wyzwań etycznych stawianych przez AI. Podczas gdy decydenci wyraźnie identyfikują kilka najważniejszych do uregulowania obszarów i nadają im największą wagę, firmy nie polaryzują tak wyraźnie wyzwań – nadając każdemu z nich podobną ważność.
– W skali globalnej, nad wykorzystaniem sztucznej inteligencji w swoich przedsięwzięciach pracuje obecnie prawie 70% firm. Chcą one przede wszystkim oferować najnowocześniejsze i najbardziej innowacyjne rozwiązania, dlatego skupiają się głównie na ich efektywności i wartości, które niosą dla użytkownika końcowego. Firmom trudno więc priorytetyzować którekolwiek z wyzwań etycznych, ponieważ wszystkie – zarówno kwestie bezstronności czy uprzedzeń, ale i zabezpieczeń danych są równie istotne. Definiując wyzwania etyczne, przedsiębiorcy mają na uwadze kwestie techniczne, implementacyjne i biznesowe, które nie znajdują się na radarach decydentów. Co więcej, badanie EY pokazuje, że 66% decydentów uważa, że regulatorzy nie rozumieją złożoności technologii opartej na sztucznej inteligencji i wyzwań biznesowych z nią związanych. Rozdźwięk między ryzykami dostrzeganymi przez legislatorów i regulatorów a firmami wynika więc przede wszystkim z innej perspektywy postrzeganych wyzwań. Trzeba pamiętać, że decydenci patrzą na nie zdecydowanie szerzej, mając na uwadze szerszą grupę interesariuszy. Firmy koncentrują się przede wszystkim na wyzwaniach – w tym biznesowych – dla nich samych i branż, w których działają. Patrzą na te kwestie również w innym horyzoncie czasowym – nie ma wątpliwości co do tego, że firmy szukają rozwiązań tu i teraz, odpowiadających na obecne wyzwania, podczas gdy legislatorzy i regulatorzy posługują się zdecydowanie bardziej odległym horyzontem czasowym – mówi Justyna Wilczyńska-Baraniak, Lider Zespołu Własności Intelektualnej, Technologii i Danych Osobowych, Kancelaria EY Law.
Różne punkty widzenia na najistotniejsze do rozwiązania kwestie etyczne związane z rozwojem sztucznej inteligencji to istotne wyzwanie legislacyjne. 55% ankietowanych przedsiębiorców wykorzystujących technologię AI oczekuje, że zostanie stworzony jeden zestaw uniwersalnych zasad, na który zgodzi się większość krajów i który będzie łatwy do zaimplementowania, niezależnie od jurysdykcji. Tak optymistyczni nie są jednak ci, którzy te zasady będą tworzyć. Tylko 21% decydentów spodziewa się takiego rozwiązania, natomiast większość – 66% uważa, że jeden zestaw uniwersalnych zasad powstanie, ale poszczególne kraje będą go implementować w zależności od własnych uwarunkowań. Ankietowani przedstawiciele firm niemal dwukrotnie częściej niż przedstawiciele legislatorów i regulatorów wskazywali również, że poszczególne kraje bądź regiony stworzą własne zasady etyczne.
Co więcej, 6 na 10 przedstawicieli firm uważa, że znacznie korzystniejszym rozwiązaniem byłoby stworzenie tych zasad przez samych zainteresowanych, czyli firmy i branże, które sztuczną inteligencję wykorzystują na co dzień w swojej działalności. Z taką tezą zgadza się natomiast wyłącznie 24% decydentów.
– Przedsiębiorcy często uważają, że prawo nie nadąża za rozwojem nowych technologii. Mówią tak również gremialnie (90%) polskie firmy, które były pytane o to w badaniu przeprowadzonym kilka miesięcy temu przez EY Law[1]. Co więcej, to właśnie sztuczna inteligencja wskazywana jest jako największe wyzwanie prawne. To efekt braku przepisów – nawet w zakresie samej definicji sztucznej inteligencji – które w sposób jasny regulowałyby kwestie związane z tą technologią. Mimo wszystko w odniesieniu do sztucznej inteligencji mogą mieć zastosowanie regulacje dotyczące ochrony danych i prywatności, ochrony konsumentów, czy przepisy w zakresie bezpieczeństwa produktów i odpowiedzialności. To jednak regulacje ogólne rozproszone i często niejednoznaczne. Wydaje się więc, że wymarzonym rozwiązaniem byłoby wspólne wypracowywanie rozwiązań zabezpieczających jak najszerszą grupę interesariuszy i beneficjentów sztucznej inteligencji, mających na uwadze potrzeby każdej z nich – mówi Justyna Wilczyńska-Baraniak, Lider Zespołu Własności Intelektualnej, Technologii i Danych Osobowych, Kancelaria EY Law.
Chociaż zarówno decydenci, jak i firmy zgadzają się, że konieczne jest wielostronne podejście do zagadnienia sztucznej inteligencji, nie ma jednak porozumienia, kto powinien przewodzić tym pracom. 38% ankietowanych firm spodziewa się, że będzie to sektor prywatny, z czym zgadza się tylko 6% decydentów.
Metodologia Badania
Badanie EY i The Future Society zostało przeprowadzone pod koniec 2019 i na początku 2020 roku w 55 krajach, wśród 71 legislatorów, regulatorów i doradców w zakresie sztucznej inteligencji oraz 284 firm wykorzystujących tę technologię. Ankietowani proszeni byli o wskazanie i uszeregowanie 11 najważniejszych zagadnień etycznych w odniesieniu do 12 rozwiązań technologicznych wykorzystujących sztuczną inteligencję.