Pomimo tego, że AI Act jest regulacją bardzo obszerną, to definicja systemu zakazanego się w nim nie znalazła. Nie zdecydowano się na twarde określenie, jakie cechy ma posiadać algorytm, żeby automatycznie był zakazany. Wynika to z tego, że jest to pewne narzędzie, które może zostać wykorzystane w różny sposób. Z tego powodu, AI Act zabrania nie konkretnych rozwiązań, ale pewnych praktyk.

Praktyki zakazane w AI Act

AI Act wymienia cały katalog praktyk zakazanych. Zakaz dotyczy m.in. systemów AI, które stosują podprogowe, celowo manipulacyjne lub zwodnicze techniki, są znacząco szkodliwe i istotnie wpływają na zachowanie osób fizycznych (art. 5 ust. 1 lit. a) AI Act) lub wykorzystują słabości wynikające z wieku, niepełnosprawności, a także szczególnej sytuacji społeczno-ekonomicznej (art. 5 ust. 1 lit. b) AI Act).

Czytaj komentarz praktyczny w LEX: Zakazane praktyki w świetle AI Act>

AI Act, definiując algorytmy, wskazuje na „cel” niedozwolonej praktyki, jaki ma być osiągnięty i potencjalny „skutek”. Z jednej strony wygląda to dość rozsądnie, bo pod takim zakazem większość świadomych użytkowników AI się podpisze. Z drugiej jednak strony można odnieść wrażenie, że jest to też droga nieco na skróty i pewna ucieczka od problemu. Tego rodzaju przepisy łatwo się tworzy, ale trudniej stosuje. Wynika to z kilku powodów. Po pierwsze, rzeczywisty „cel”, w jakim algorytm jest wykorzystywany, często pozostaje tajemnicą jego administratora. „Celów” może być też kilka, a niektóre (te priorytetowe) mogą pozostać ukryte. Bywa też tak, że cele deklarowane są nieosiągalne, a tak naprawdę chodzi o zupełnie co innego. „Skutek” natomiast często jest trudny do przewidzenia, a może też nigdy nie wystąpić. Co więcej, algorytmy uznane za dozwolone w jednej dziedzinie mogą być zakazane w innym kontekście.

Czytaj komentarz w LEX: Flisak Damian, Prawne aspekty trenowania algorytmów generatywnej sztucznej inteligencji (AI)>

Jest w tym pewna niespójność, bo jednocześnie AI Act dzieli algorytmy na kategorie ryzyka. Tymczasem, tym, co ryzyko to rozróżnia, jest nie sam algorytm, ale właśnie sposób jego wykorzystania. Pomija się w tym przypadku algorytmy o potencjalnym podwójnym przeznaczeniu. Chodzi np. o takie algorytmy, które rekomendują nam pewne towary lub treści, wykorzystując nasze upodobania. W tym przypadku granica między rekomendacją a manipulacją bywa nieostra. Naiwnością byłoby też zakładać, że ktoś, kto chce wykorzystać algorytmy AI w sposób nie do końca uczciwy, napisze o tym wprost w oficjalnych wewnętrznych dokumentach organizacji.

Czytaj także: Indeks algorytmów zakazanych. Technologia AI niczym narzędzia inkwizycji

Co zmieni ustawa o systemach sztucznej inteligencji

Ustalenie, jaki był rzeczywisty cel zastosowania algorytmu może być trudne. Często istnieć będą jedynie dowody poszlakowe. Łatwo więc o pomyłkę przy nakładaniu kary. Pytań i wątpliwości ze stosowaniem AI Act jest tak dużo, że Komisja Europejska zdecydowała się wydać specjalne wytyczne. Na razie jednak przepisy o systemach zakazanych z AI Act, pomimo tego, że obowiązują, są nieco „bezzębne”. Nie ma jeszcze organu, który byłby odpowiedzialny za nadzór rynku i ewentualne kary mógł nakładać. To jednak się zmieni. Trwają prace nad projektem ustawy o systemach sztucznej inteligencji, który ureguluje sposób działania organu i postępowanie przed nim.

Nowy projekt przewiduje kilka sposobów na zapewnienie elastyczności nowego prawa. Jednym z nich jest możliwość wystąpienia do organu nadzoru (w Polsce ma to być Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, dalej jako: „Komisja”) o wydanie opinii indywidualnej. Kolejnym ma być możliwość zawarcia tzw. „układu o nadzwyczajnym złagodzeniu sankcji”. Zarówno opinie indywidualne (w poprzedniej wersji projektu zwane interpretacjami), jak też instytucja układu, są bardzo podobne do znanych już rozwiązań w prawie podatkowym. Chodzi tu odpowiednio o możliwość wystąpienia o wydanie interpretacji prawa podatkowego oraz umowę o współdziałanie, jaką podatnik może zawrzeć z szefem Krajowej Administracji Skarbowej.

Układ i umowę o współdziałaniu dzieli jednak dość istotna różnica. W przypadku tej ostatniej celem jest zapewnienie pewnej przejrzystości i budowanie zaufania. Ma to się odbywać poprzez ustalenie pewnych reguł zanim pojawi się problem. Przy czym założenie jest takie, że podatnik, czując się bezpiecznie i mając poczucie przewidywalności, nie będzie miał interesu w uciekaniu w rozwiązania nieuczciwe.

Zobacz także szkolenie w LEX: Litwiński Paweł, Sztuczna inteligencja (AI) a RODO – co musisz wiedzieć?>

„Układ” może się źle kojarzyć

W przypadku projektu ustawy o systemach sztucznej inteligencji idea „układu” jest nieco inna, bo ma do niego dojść już w momencie, kiedy do naruszenia prawa doszło. Sama nazwa „układ” nie jest też najszczęśliwsza. Przywołuje niezbyt dobre skojarzenia i może tworzyć wrażenie „kupczenia” sprawiedliwością. Tak jakby ten sam algorytm w rękach dwóch różnych podmiotów był zakazany nieco bardziej lub nieco mniej. Wynika to z nie dość precyzyjnych przesłanek, jakie mają decydować o tym, czy „układ” zostanie zawarty.

Zgodnie z projektem komisja będzie mogła (ale nie musiała) „wydać postanowienie o możliwości zawarcia układu w sprawie warunków nadzwyczajnego złagodzenia sankcji, jeżeli uzna, że przyczyni się to do przyspieszenia postępowania lub w inny sposób przyczyni się do pełniejszej realizacji celów rozporządzenia 2024/168” (art. 61 ust 1 projektu ustawy o systemach sztucznej inteligencji z 10 lutego 2025 r.). Co istotne, użycie słowa „może” powoduje, że w praktyce podmioty w takiej samej sytuacji mogą być traktowane w sposób odmienny. Decyzja czy postanowienie o zawarciu układu wydać czy też nie będzie zależała od Komisji.

 

Cena promocyjna: 179.1 zł

|

Cena regularna: 199 zł

|

Najniższa cena w ostatnich 30 dniach: 143.27 zł


Same przesłanki zawarcia układu zostały sformułowane bardzo ogólnie i w sposób mało zrozumiały. Pojęcie: „pełniejszej realizacji celów rozporządzania” jest nieostre, a to co ono oznacza, zależy od punktu widzenia. Celem AI Act jest „poprawa funkcjonowania rynku wewnętrznego i promowanie upowszechniania zorientowanej na człowieka” (art. 1 ust 1 AI Act). Na czym ma polegać „zorientowanie AI” na człowieka chyba nikt do końca nie wie. Z poprawą funkcjonowania rynku wewnętrznego jest jeszcze gorzej. Łatwo można wyobrazić sobie, że ktoś dojdzie do wniosku, że rynek wewnętrzny będzie funkcjonował lepiej, jeśli np. tylko jeden przedsiębiorca (z którym zostanie zawarty układ) będzie mógł wykorzystywać daną technologię (bo on o bezpieczeństwo zadba najlepiej). Wpłynęłoby to na przyspieszenie postępowań, bo w zasadzie nie byłoby potrzeby prowadzić innych. Jest to oczywiście przykład skrajny, który w praktyce nie ma szansy realizacji. Dobrze jednak pokazuje istotę problemu. Nawet jeśli go odrzucić jako nierealny, to i tak pole do manewru przy tak nieostrych przesłankach pozostaje bardzo duże.

Czytaj także artykuł w LEX: Irytowska Katarzyna, Pułapki sztucznej inteligencji>

Nie jest to jednak jedyna zmiana w nowym projekcie ustawy o systemach sztucznej inteligencji. Oprócz zmian, o których mówi się w środowisku dość dużo (np. wzmocnienie pozycji przewodniczącego komisji), jest szereg mniejszych. Duża część to zmiany kosmetyczne. Są wśród nich jednak też takie, które mogą okazać się bardzo istotne i nawet wypaczać cały system. Jedną z nich jest zmiana przeznaczenia środków z kar administracyjnych. O ile w pierwszej wersji projektu środki z kar miały zasilać budżet państwa tak w drugiej wersji mają one stanowić przychód biura komisji.

Sytuacja, w której w zasadzie jeden i ten sam organ ma kary nakładać i jednocześnie mają one stanowić jego przychód, nie jest zdrowa. Dodatkowo, w kontekście możliwości zawarcia „układu” z wybranymi podmiotami może powstać wrażenie, że mamy na rynku podmioty równe i równiejsze wobec prawa. Elastyczność prawa zostaje więc wprowadzona kosztem jego przejrzystości i autorytetu.

Jest to pewien czarny scenariusz, bo wiele tutaj zależy od praktyki stosowania nowych przepisów. O ile czasem pewna elastyczność systemu przynosi duże korzyści, to jednak z reguły tego rodzaju narzędzia wymagają od stosujących prawo dużej dojrzałości. Tej dojrzałości w naszym kraju często brakuje.

 

Cena promocyjna: 179.1 zł

|

Cena regularna: 199 zł

|

Najniższa cena w ostatnich 30 dniach: 143.27 zł


Algorytmy jak kije bejsbolowe

Dobrym przykładem z przeszłości mogą być lata 90-te i problemy z kijem bejsbolowym. Kij taki potrzebny jest do uprawiania sportu. Równocześnie może być jednak skutecznie wykorzystany jako ofensywna broń. Podobnie, jak niektóre algorytmy, jest to narzędzie, które można wykorzystać w dobrych lub złych celach. Trudno sobie wyobrazić, żeby konkretna dyscyplina sportu została w Polsce zakazana. Z drugiej jednak strony odsetek pseudokibiców piłkarskich, którzy deklarowali policji, że uprawiają baseball amerykański, był podejrzanie duży. Dodatkowe podejrzenia, że chodzi o coś innego wzbudzało też to, że bardzo często przyłapani z tego rodzaju kijami nie mieli piłki. Nikt jednak nie może być karany za czyn, którego jeszcze nie popełnił. Samo podejrzenie, że intencje nie są do końca czyste, nie wystarczy, żeby ograniczyć wolność do uprawiania sportu. Rozwiązaniem było wprowadzenie twardej regulacji w ustawie o broni i amunicji (art. 4 ust 1 pkt 4 ustawy z dnia 21 maja 1999 r. o broni i amunicji) rozróżniającej kij bejsbolowy od kija imitującego jedynie taki kij. Ten ostatni został uznany za broń białą. Obrót „oryginalnym” kijem stał się bardziej kontrolowany. „Oryginalne” kije były na tyle drogie, że dla dużej części zainteresowanych okazała się to inwestycja nieopłacalna.

W przypadku algorytmów historia może się powtórzyć. Być może skończy się na tym, że zamiast opisywać praktyki, których się obawiamy, trzeba będzie postawić sprawę na twardo i określić, co jest zakazane, a co nie. Sytuację, w której komisja po przyłapaniu na gorącym uczynku będzie według własnego uznania z jednym przedsiębiorcą zawierać układ, na drugiego natomiast nakładać wysoką karę, można porównać do prawa decydowania, kto może zagrać w baseball, a kto tylko udaje, że gra. Zresztą coraz częściej mówi się o potrzebie rewizji samego AI Act. Bez jasnych kryteriów i z tak dużą dowolnością (a jak kto woli – elastycznością) może być trudno o wykształcenie zdrowego otoczenia prawnego. Historia kijów bejsbolowych może nas wbrew pozorom wiele nauczyć. W końcu baseball amerykański ma swoje korzenie w starej polskiej grze w palanta.

Dariusz Tarabasz, adwokat, partner w Kancelarii adwokackiej Czyżewscy

Czytaj także komentarz w LEX: Kary w akcie ws. sztucznej inteligencji>