Nowy projekt Aktu w sprawie sztucznej inteligencji przedstawiony przez Parlament Europejski. Zmieniono definicje i rodzaje klasyfikacji systemów AI

traple.pl 1 rok temu

11 maja 2023 r. połączone komisje Parlamentu Europejskiego (IMCO i LIBE) zakończyły wielomiesięczne negocjacje i przyjęły projekt stanowiska Parlamentu w sprawie projektu Aktu w sprawie sztucznej inteligencji (AI Akt)[1]. Stanowisko Parlamentu wprowadza dużo zmian w stosunku do dotychczasowych wersji projektu – zarówno tej przedstawionej przez Komisję[2] w kwietniu 2021 r., jak i tej przyjętej przez Radę UE[3] w grudniu 2022 r. Poniżej przedstawiamy najważniejsze zmiany. Polegają one na wprowadzeniu nowych definicji, a także obejmują propozycję zmiany klasyfikacji systemów AI, co bezpośrednio będzie wpływać na obowiązki dostawców, użytkowników (osoby wdrażające), importerów oraz dystrybutorów systemów sztucznej inteligencji (AI).

Inna definicja systemu AI

W swoim stanowisku Parlament przyjął całkowicie inne podejście w zakresie definicji systemu AI, niż miało to miejsce we wcześniejszych projektach. W stanowisku podano, iż systemem AI ma być „system oparty na maszynie, który jest zaprojektowany do działania z różnymi poziomami autonomii i który może, dla wyraźnych lub dorozumianych celów, generować dane wyjściowe, takie jak przewidywania, zalecenia lub decyzje, które wpływają na środowisko rzeczywiste lub wirtualne”. Oznacza to przyjęcie znacznie szerszej definicji, niż miało to miejsce dotychczas. Jest to również definicja bardzo zbliżona do tej przyjętej w 2019 r. przez OECD[4] oraz częściowo funkcjonującej w amerykańskim prawie[5].

Zmianie uległa również definicja wprowadzonego przez Radę pojęcia systemu AI ogólnego przeznaczenia. Zgodnie ze stanowiskiem Parlamentu, pod tym pojęciem ma się kryć „system AI, który może być używany i dostosowywany do szerokiego zakresu zastosowań, do których nie został celowo i specjalnie zaprojektowany”.

Zmiany w zakresie zakazanych systemów AI

W swoim projekcie Parlament w znaczący sposób rozszerzył listę systemów AI o niedopuszczalnym ryzyku, których wprowadzanie do obrotu, oddawanie do użytku oraz wykorzystywanie powinno zostać zakazane.

Do katalogu zakazanych systemów AI, dołączono systemy:

  • kategoryzacji biometrycznej, które kategoryzują osoby fizyczne według wrażliwych lub chronionych cech lub adekwatności lub na podstawie wnioskowania o tych cechach lub adekwatnościach;
  • tworzące lub rozszerzające bazy danych rozpoznawania twarzy poprzez nieukierunkowane pobieranie obrazów twarzy z Internetu lub nagrań z kamer przemysłowych;
  • wnioskujące o emocjach osób fizycznych w obszarach egzekwowania prawa, zarządzania granicami, w miejscu pracy i instytucjach edukacyjnych;
  • analizujące nagrania zarejestrowane w przestrzeni publicznej dzięki systemów zdalnej identyfikacji biometrycznej działających „post factum” – chyba iż są one przedmiotem uprzedniego zezwolenia sądu i są ściśle niezbędne w związku z popełnieniem konkretnego i poważnego przestępstwa. Należy przy tym zauważyć, iż lista przestępstw uzasadniających takie działanie została znacząco zawężona w stosunku do poprzednich projektów AI Aktu.

Ponadto, Parlament rozszerzył oraz doprecyzował zakres znajdujących się już wcześniej systemów – tj. systemów stosujących techniki podprogowe, systemów wykorzystujących słabości określonych grup osób, a także systemów punktowej oceny społecznej (social scoring’u). Znacząco zmodyfikowano także regulację odnoszącą się do wykorzystywania systemów zdalnej identyfikacji biometrycznej „w czasie rzeczywistym” w przestrzeni publicznej do celów egzekwowania prawa.

Co więcej, „przeniesiono” z dotychczasowej listy systemów AI wysokiego ryzyka do listy zakazanych systemów AI systemy predykcyjne oparte na profilowaniu, lokalizacji lub wcześniejszych zachowaniach przestępczych. Przepis ten doczekał się również pewnych modyfikacji co do swojego szczegółowego zakresu.

Zmiany w zakresie systemów AI wysokiego ryzyka

Duże zmiany wprowadzono również w zakresie systemów AI wysokiego ryzyka, a pewnemu zawężeniu uległ sposób klasyfikowania takich systemów. W porównaniu do poprzednich projektów nie wystarczy już, iż określony system AI będzie systemem skategoryzowanym w załączniku III do AI Aktu, ale dla uznania go za system wysokiego ryzyka będzie jeszcze musiał stwarzać znaczące ryzyko powstania szkody dla zdrowia, bezpieczeństwa, praw podstawowych lub środowiska (aby uszczegółowić te kwestie, Komisja będzie obowiązana do wydania odpowiednich rekomendacji). o ile natomiast dostawca systemu AI kategoryzowanego w załączniku III uzna, iż jego system nie stwarza znaczącego ryzyka, będzie musiał złożyć stosowne uzasadnienie do krajowego organu nadzoru.

Modyfikacjom i rozszerzeniu uległa również sama lista systemów i kategorii wskazanych w załączniku III. Rozszerzono i doprecyzowano zakres dotychczasowej klasyfikacji, a także dodano do niej m.in. systemy AI przeznaczone do:

  • wnioskowania o cechach indywidualnych osób fizycznych na podstawie danych biometrycznych lub opartych na biometrii (w tym systemy przeznaczone do rozpoznawania emocji);
  • stosowania jako elementy bezpieczeństwa związane z zarządzaniem i eksploatacją dostaw wody, gazu, ogrzewania, energii elektrycznej oraz krytycznej infrastruktury cyfrowej;
  • wykorzystania w celu wywarcia wpływu na wynik wyborów lub referendów lub na zachowania wyborcze osób fizycznych podczas głosowania;
  • wykorzystania przez platformy mediów społecznościowych (które zostały uznane za bardzo duże platformy internetowe w rozumieniu Aktu o usługach cyfrowych) w ich systemach rekomendacyjnych, które polecają użytkownikom treści generowane przez innych użytkowników tej platformy.

Zmianom uległy również szczegółowe obowiązki nakładane na systemy AI wysokiego ryzyka związane z systemami zarządzania ryzykiem, danymi i zarządzeniem danymi, dokumentacją techniczną oraz rejestrowaniem zdarzeń. Istotnie skrócono też termin na zgłaszanie krajowym organom nadzoru poważnych błędów związanych z działaniem takich systemów – z 15 dni do 3 dni. Ponadto Parlament wprowadził obowiązek przeprowadzenia oceny skutków działania systemu AI na prawa podstawowe (fundamental rights impact assessment) przed oddaniem systemu AI wysokiego ryzyka do użytku.

Modele podstawowe (foundation models) i generatywna AI

Parlament postanowił wcielić do projektu AI Aktu pojęcie tzw. modeli podstawowych (foundation models), których pierwotny projekt zaprezentowany przez Komisję w ogóle nie uwzględniał. Przejmują one niejako główny ciężar obowiązków, które w projekcie Rady wiązały się z systemami AI ogólnego przeznaczenia. W stanowisku Parlamentu modelem podstawowym jest „model AI, który jest szkolony na szerokiej skali danych, zaprojektowany z myślą o ogólności wyników i może być dostosowany do szerokiego zakresu zróżnicowanych zadań”.

Zgodnie ze stanowiskiem Parlamentu, dostawca modelu podstawowego przed wprowadzeniem go do obrotu lub oddaniem do użytku, niezależnie od tego, czy jest on udostępniany jako samodzielny model, wbudowany w system AI lub inny produkt, udostępniany na licencji open source jako usługa, jak również innymi kanałami dystrybucji, powinien zadbać m.in. o:

  • identyfikowanie, ograniczanie i łagodzenie racjonalnie przewidywalnych zagrożeń dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska naturalnego oraz demokracji i praworządności, które może spowodować taki model;
  • przetwarzanie i włączanie do tych modeli wyłącznie zbiorów danych podlegających odpowiednim środkom zarządzania danymi;
  • projektowanie i rozwijanie modelu w celu osiągnięcia przez niego odpowiednich poziomów wydajności, przewidywalności, interpretowalności, spójności, bezpieczeństwa i cyberbezpieczeństwa;
  • projektowanie i rozwijanie modelu, korzystając z obowiązujących norm, w celu zmniejszenia zużycia energii i zasobów, jak również zwiększenia efektywności energetycznej i ogólnej wydajności systemu;
  • sporządzenie obszernej dokumentacji technicznej oraz zrozumiałych instrukcji w celu umożliwienia dostawcom usług pochodnych wywiązanie się ze wszystkich swoich obowiązków wynikających z AI Aktu.

Natomiast dostawcy modeli podstawowych wykorzystywanych jako systemy generatywnej AI powinni dodatkowo:

  • wypełniać obowiązki z zakresu przejrzystości;
  • trenować (a jeżeli to możliwe – również projektować i rozwijać) swoje modele w sposób zapewniający odpowiednie zabezpieczenia przed generowaniem treści naruszających prawo UE;
  • dokumentować i publicznie udostępniać wystarczająco szczegółowe podsumowanie wykorzystania danych szkoleniowych chronionych prawem autorskim.

Pozostałe zmiany

Oprócz propozycji zmian odnośnie definicji AI oraz nowych zasad klasyfikowania tych systemów, w stosunku do poprzedniej wersji projektu Aktu w sprawie sztucznej inteligencji Parlament zaproponował zmiany również w innych obszarach, np.

  • kary za niedopełnienie obowiązków wynikających z AI Aktu, które zdaniem Parlamentu powinny zostać podwyższone,
  • termin rozpoczęcia stosowania AI Act (tj. 2 lata od wejścia w życie; wcześniej zakłada 3 lata),
  • postulat oparcia tworzenia i stosowania wszystkim systemów AI oraz modeli podstawowych na zasadzie godnej zaufania AI (trustworthy AI),
  • zagwarantowanie prawa do żądania jasnego i rzeczowego wyjaśnienia roli systemu AI w procedurze decyzyjnej.

Dalsze prace

Stanowisko przyjęte przez połączone komisje IMCO i LIBE nie pozostało oficjalnym stanowiskiem Parlamentu w sprawie AI Aktu. Prawdopodobnie będzie ono przyjęte podczas kolejnej sesji Parlamentu, która jest planowana na dni 12-15 czerwca i nie powinno odbiegać od tego przyjętego przez połączone komisje. Oficjalne przyjęcie stanowiska przez Parlament z kolei otworzy drzwi do rozpoczęcia trilogów, które przybliżą nas do ustalenia ostatecznego tekstu przyszłej unijnej regulacji.

[1] https://www.europarl.europa.eu/meetdocs/2014_2019/plmrep/COMMITTEES/CJ40/DV/2023/05-11/ConsolidatedCA_IMCOLIBE_AI_ACT_EN.pdf

[2] https://eur-lex.europa.eu/resource.html?uri=cellar%3Ae0649735-a372-11eb-9585-01aa75ed71a1.0012.02%2FDOC_1&format=PDF

[3] https://data.consilium.europa.eu/doc/document/ST-14954-2022-INIT/pl/pdf

[4] https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449#mainText

[5] https://www.congress.gov/bill/116th-congress/house-bill/6216/text#toc-H41B3DA72782B491EA6B81C74BB00E5C0

Idź do oryginalnego materiału