Unijne wytyczne dotyczące regulacji zastosowań sztucznej inteligencji sprecyzowane

Unijne wytyczne dotyczące regulacji zastosowań sztucznej inteligencji sprecyzowane

W dziedzinie wykorzystania zaawansowanych technologii Europa od dłuższego czasu ustępuje USA i Chinom. W tym zakresie ciągle brak jest zintegrowanego podejścia w ramach UE. Istotnym krokiem kierunku jego wypracowania jest lutowa publikacja cyfrowej strategii przez Komisję Europejską.

Kluczowym elementem strategii cyfrowej są dane i zastosowania sztucznej inteligencji (AI). W opublikowanym dokumencie (whitepaper) pod tytułem European approach to excellence and trust Komisja Europejska kreśli wytyczne dotyczące wsparcia rozwoju sztucznej inteligencji w postaci polityk rozwojowych, działalności badawczej oraz inwestycji w oparciu o europejski potencjał przemysłowy i infrastrukturę IT. Komisja zarysowuje także wymogi etyczne związane z wykorzystaniem AI (Ethics Guidelines). Warto zaznaczyć, że równolegle toczy się projekt powołania do życia europejskiej chmury obliczeniowej pod nazwą Gaia-X jako przeciwwagi dla infrastruktury chmurowej wielkich firm technologicznych jak Amazon, Microsoft czy Google.

W przyjętej przez KE definicji za sztuczną inteligencję uznaje się systemy, które wykazują inteligentne zachowania poprzez umiejętność analizy danych i są zdolne podejmować, choćby w pewnym stopniu, decyzje o charakterze autonomicznym. Może się to odbywać w oparciu o software (np. rozpoznawanie twarzy) lub hardware (pojazdy autonomiczne, robotyka). Sztuczna inteligencja traktowana jest jako rynkowa szansa dla europejskich przedsiębiorstw i sektora finansowego. Istnieje jednak długa lista ryzyk związanych z zastosowaniem sztucznej inteligencji. Należą do nich kwestie bezpieczeństwa danych i prywatności, szkody wynikające z błędów w algorytmach, skutkujące decyzjami dyskryminującymi konsumentów oraz kwestie weryfikacji zdolności kredytowej, które mogą być mało transparentne. Sztuczna inteligencja może także powielać różnorakie uprzedzenia związane np. z płcią, wiekiem czy rasą. Podnoszona jest też kwestia trudności zidentyfikowania odpowiedzialnych za negatywne skutki funkcjonowania AI i ustalenia kompensat dla poszkodowanych. Co prawda, programiści i podmioty korzystające z rozwiązań AI w swoich działaniach biznesowych są już związani dyrektywami EU, chociażby w zakresie RODO lub Nieuczciwych Praktyk Handlowych, jednak specyfika działania AI wymagać będzie kolejnych uregulowań, wynikających ze złożoności algorytmów, ich nieprzewidywalności i innych nie zdefiniowanych jeszcze ryzyk.

Kierując się powyższymi względami Komisja Europejska proponuje w pierwszym rzędzie dostosowanie lub aktualizację istniejących już legislacji. Wymaga to jednak precyzyjnego zdefiniowania obszarów, których miałoby to dotyczyć. Również istniejące rozwiązania związane z zapewnieniem bezpieczeństwa konsumentom w już funkcjonujących produktach i usługach powinny zostać uzupełnione o ryzyka wynikające z przyszłego ich powiązania z systemami sztucznej inteligencji. Nie eliminuje to potrzeby uchwalenia odrębnych regulacji związanych ze specyfiką AI jako takiej.

W odniesieniu do kwestii odpowiedzialności Biała Księga zawiera raport dotyczący bezpieczeństwa i prawnych skutków stosowania sztucznej inteligencji, internetu rzeczy (IoT) oraz robotyki. Chodzi o uzyskanie odpowiedzi na pytanie, w jakim zakresie istniejące do tej pory zapisy chronić będą końcowych użytkowników. Niezależnie od tego będą wprowadzone nowe zapisy prawne podnoszące stopień ochrony konsumentów w celu zrównoważenia ryzyk wynikających z wprowadzenia nowych technologii, gdyż zwiększają one nierównowagę rynkową. Na przykład złożoność zastosowań AI może w obecnie istniejącym porządku prawnym utrudnić wypłatę rekompensat pokrzywdzonym podmiotom (Dyrektywa dot. Odpowiedzialności Producentów).

Zastosowanie AI ma miejsce w sektorach, gdzie istnieją znaczące ryzyka dla klientów w postaci utraty życia, zdrowia i szkód o charakterze finansowym. Należą do nich transport, opieka zdrowotna, energetyka, sektor publiczny i finansowy. Dlatego na podmioty działające w zdefiniowanych obszarach nałożone zostaną wymogi prawne związane z: przygotowaniem danych szkoleniowych dla algorytmów, przechowywaniem danych, udostępnianiem niezbędnych informacji, trwałością i dokładnością rozwiązań oraz ludzkim nadzorem i innymi specyficznymi obszarami zastosowań AI, jak np. zdalna identyfikacja biometryczna.

Komisja proponuje też powołanie unijnej struktury ds. ładu organizacyjnego (governance), opartego o sieć podmiotów krajowych i sektorowych. Jednostka ta miałaby charakter monitorujący i wspierający i nie zastępowałaby działań prawnych w obrębie UE. Planowane regulacje dotyczące zastosowań AI powstaną w oparciu o prace powołanej już Grupy Ekspertów Wysokiego Szczebla (AI HLEG), reprezentujących sferę nauki, przemysłu i organizacji pozarządowych. Komisja Europejska ogłosiła publiczne konsultacje w zakresie regulacji funkcjonowania sztucznej inteligencji, które mają trwać do 19 maja br.

ZPF, poprzez Eurofinas, czyli Europejską Federację Stowarzyszeń Firm Finansowych, do której należy, również bierze udział w tych konsultacjach. Pierwsza sesja specjalnej grupy roboczej (AI TaskForce), poświęcona identyfikacji ryzyk i potencjalnych obszarów regulacji w obszarze finansowym, już się odbyła – informuje dr Mirosław Ciesielski, koordynator Komisji Stałej ZPF ds. FinTech, który wraz z Markiem Czystołowskim (Ultimo) reprezentuje ZPF w konsultacjach w ramach grupy.