Parlament Europejski głosował dzisiaj w sprawie regulacji związanych ze sztuczną inteligencją. Sprawę komentują eksperci IDEAS NCBR. IDEAS NCBR Sp. z o.o. to ośrodek badawczo-rozwojowy działający w obszarze sztucznej inteligencji i ekonomii cyfrowej, którego misją jest wsparcie rozwoju tych technologii w Polsce, poprzez stworzenie platformy łączącej środowisko akademickie z biznesowym. IDEAS NCBR Sp. z o.o. powołana została przez Narodowe Centrum Badań i Rozwoju i należy do Grupy NCBR.
– Unia Europejska zaczęła pracować nad ramami prawnymi dla sztucznej inteligencji już dwa lata temu, kiedy nie był to jeszcze tak głośny temat. Finałowy etap prac przypada już na czas przyspieszania rozwoju AI, kiedy poważnie zainteresowały się nią media, politycy i biznes. Regulowanie “rozpędzonego pociągu” ma tę zaletę, że minimalizujemy ryzyko jego rozbicia, ale z drugiej strony będzie poruszał się wolniej niż konkurencyjne połączenia. Wydaje mi się, że kierunek jest dobry, ale ryzyko spowolnienia rozwoju AI w Europie jest znaczące i należy obie te kwestie brać pod uwagę przy wprowadzaniu ewentualnych regulacji. Widać też, że UE nie zamierza uregulować wszystkiego raz na zawsze, bo chce powołać Europejski Urząd ds. Sztucznej Inteligencji na bieżąco śledzący rozwój tej technologii. Mam nadzieję że nie stanie się on “policją AI”, bo taka funkcja byłaby po prostu niemożliwa do zrealizowania – dostęp do modeli i danych jest zbyt rozproszony. Sensownym scenariuszem jest, by urząd sprawował rolę think thanku będącego ciałem doradczym dla rządów – mówi Tomasz Trzciński z IDEAS NCBR.
– Unijne instytucje zapewniają, że regulacje zapisane w AI Act dotyczą tak naprawdę tylko komercyjnych zastosowań sztucznej inteligencji i nie ograniczają badań naukowych, więc Unia Europejska nie zostanie w tyle za USA czy Chinami. Jednak założenie, że to co w badaniach nie przenika do biznesu jest dość ryzykowne. W praktyce przepływ ludzi i wiedzy pomiędzy tymi dwoma rezerwuarami jest znaczny i mocno wpływa na to jak bardzo realne i stosowalne będą tego typu zabezpieczenia – komentuje lider grupy roboczej w IDEAS NCBR.
– Pozytywny zaś jest fakt, że AI Act skupia się na rozwiązaniach, które uniemożliwiają stosowanie sztucznej inteligencji do zadań, których zazwyczaj się obawiamy np. ingerowania w prywatność. Powinniśmy być szczególnie uważni na kwestie etyczne związane z danymi medycznymi, diagnozami czy profilowaniem osób w kontekście prawa. Ogólnie wszelkie aspekty związane z danymi osobowymi są dobrym wyróżnikiem. Mając do nich dostęp, powinniśmy mieć jasne ramy prawne, czego nie należy robić, podobnie jak dzieje się to w przypadku badań medycznych. Jednak nie spodziewałbym się, że od samych przepisów wszyscy poczują się bezpiecznie ze sztuczną inteligencją. Użytkownicy ufają systemom, które są przewidywalne i których działanie rozumieją, a niekoniecznie tym, które są regulowane. Myślę, że w zakresie zaufania dużo więcej dobrego niż regulacje może przynieść interpretowalność AI, czyli rozwiązania z zakresu Explainable AI – dodaje Tomasz Trzciński.
– W przypadku każdej istotnej zmiany technologicznej pojawia się dylemat: czy lepiej poczekać, aż technologia się rozwinie przed jej regulacją, czy też regulować od samego początku, zanim osiągnie dojrzałość? Wprowadzanie regulacji dopiero w miarę rozwoju technologii umożliwia zwiększenie innowacyjności i elastyczności prowadzonych badań. Pozwala również na pełne wykorzystanie potencjału zawartego w rozwijanej technologii bez niepotrzebnych strat wynikających z pokonywania ograniczeń, co potencjalnie prowadzi do optymalizacji i zwiększenia efektywności podejmowanych działań. W rozwoju technologii pozostaje większa przestrzeń na kreatywność i łatwiej jest osiągnąć postępowe wyniki niż wtedy, gdy możliwości dalszego rozwoju są ściśle uregulowane – tłumaczy Tomasz Michalak.
– Z drugiej strony, regulowanie rozwoju AI od samego początku, nawet przed osiągnięciem pełnej dojrzałości tej technologii, ma swoje własne zalety. Pozwala z dużą odpowiedzialnością zidentyfikować potencjalne ryzyka związane z AI, jak również podejść do wyzwań natury etycznej w sposób proaktywny. Planowanie prac badawczych na wczesnym etapie rozwoju technologii we współpracy z legislatorami pozwala w bardziej celowy sposób wpłynąć na dostosowanie powstałych rozwiązań do wartości i oczekiwań społeczeństwa. W rezultacie możliwe jest zapewnienie bezpieczeństwa, ochrony prywatności i odpowiedzialnego wykorzystania zasobów, co jest szczególnie istotne dla technologii o znaczącym wpływie na dobrobyt ludzki, a taką technologią jest właśnie AI – dodaje ekspert.
– Niestety, znalezienie odpowiedniej równowagi między regulacją a innowacją jest dużym wyzwaniem. Wymaga ciągłego dialogu między decydentami, badaczami, przedsiębiorcami i społeczeństwem. Należy monitorować potencjalne ryzyka i korzyści wynikające z technologii oraz wybrać odpowiedni czas i zakres regulacji. Zatem dyskusje jakie się obecnie toczą w Unii Europejskiej, USA i na całym świecie są jak najbardziej na miejscu. Zważywszy na potencjalne ryzyka i wpływ AI na ludzkość, moim zdaniem, dmuchanie na zimne i regulacje są podejściem w tym przypadku właściwszym. Oczywiście, pytanie jakie regulacje i komu służące – mówi lider grupy badawczej w IDEAS NCBR.
– W kwestii Europejskiego Urzędu ds. Sztucznej Inteligencji i dyskusji, czy uczynić go bardziej “policjantem” czy ciałem doradczym pojawia się kwestia: czy możliwe jest skuteczne regulowanie technologii, np. AI, bez żadnego mechanizmu egzekwowania? Ciekawym przykładem jest wczesna regulacja internetu. W początkowych dniach istnienia internetu, gdy był to technologia stosunkowo nowa, regulacje były bardzo ograniczone, albo w ogóle nie istniały. Chodziło o wspieranie rozwoju, a nie narzucanie surowych mechanizmów egzekwowania. Wraz z powszechnym dostępem do internetu jego wpływ na różne obszary społeczeństwa stał się istotny. Zatem rządy zaczęły wprowadzać bardziej rygorystyczne przepisy i mechanizmy ich egzekwowania, aby rozwiązać najważniejsze problemy: prywatność, prawo własności intelektualnej czy cyberbezpieczeństwo. Myślę, że osoby po 40-stce doskonale pamiętają jak wyglądało przestrzeganie praw własności intelektualnej on-line 20 lat temu. Dlatego nie wierzę w koncepcję „policji AI” teraz. W przyszłości być może tak – mówi Tomasz Michalak.
– Istnieje wiele przykładów technologii, do których wielu było najpierw nastawionych sceptycznie, ale dzięki regulacjom zyskały zaufanie społeczeństwa. Kiedy pierwsze pojawiły się pierwsze samoloty, wielu uważało pilotów za ryzykantów, a sam pomysł latania za fanaberię. Nie bez powodu ludzie nie mają skrzydeł, prawda? I faktycznie, samoloty w pierwszych latach swojego istnienia nie były oczywiście tak bezpieczne jak obecnie. Poprzez utworzenie organów regulacyjnych, wprowadzenie standardów bezpieczeństwa i dzięki postępowi technologicznemu, lotnictwo stopniowo zdobywało zaufanie społeczeństw. Dziś jest szeroko akceptowanym i regulowanym środkiem transportu. Na chwilę obecną wydaje mi się, że jest to droga, która będziemy musieli przejść z AI. Od wielkich obaw, poprzez regulacje, po oswojenie się i akceptację – mówi Tomasz Michalak.
– Ale regulacje to także ryzyko, o którym mówiliśmy już wcześniej, tj. potencjalne zduszenie innowacji. Nie wiemy czy badania, które na chwile obecną wydają nam się ryzykowne, nie okażą się przełomowe w trochę albo w zupełnie innym miejscu. Myślę jednak, że możliwe jest wymaganie pewnych podstawowych zasad sprawiedliwości od każdego rodzaju AI, np. zakaz dyskryminacji ze względu na kolor skóry czy wierzenia religijne. Można te wymagania zapisać w postaci prostych aksjomatów. Np. decyzja systemu opartego AI wobec osoby o pochodzeniu azjatyckim powinna być taka sama jak wobec osoby czarnoskórej, jeśli kolor skóry jest jedyną istotną zmienną odróżniającą te dwie osoby – dodaje ekspert.
– Oczywiście, istnieją obszary badawcze w AI, którym z zasady powinniśmy się bardziej przyglądać niż innym. Np. AI w ochronie zdrowia wymaga większej uwagi regulacyjnej niż w zastosowaniach przemysłowych do wykrywania ubytków w produktach na taśmie fabrycznej. Innym obszarem wymagającym uwagi jest zastosowania AI w obszarze bezpieczeństwa i prewencji. Co ważne, te obszary już są bardzo mocno regulowane. Teoretycznie moglibyśmy rozciągnąć istniejące już regulacje na technologie AI – mówi lider grupy roboczej w IDEAS NCBR.