AI Act w Europie. Jak Unia chce uregulować sztuczną inteligencję?
AI Act nie jest europejskim zakazem sztucznej inteligencji. Jest raczej próbą ustawienia świateł na skrzyżowaniu, na którym spotykają się firmy technologiczne, administracja, szkoły, banki, policja, sądy, lekarze, pracownicy i zwykli użytkownicy internetu.
Unia Europejska przyjęła przepisy, które mają działać według prostej zasady: im większe ryzyko dla człowieka, tym ostrzejsze wymagania. Inaczej traktowany będzie filtr antyspamowy, inaczej chatbot, inaczej system oceniający kandydatów do pracy, a jeszcze inaczej narzędzie do rozpoznawania twarzy w przestrzeni publicznej.
Najważniejsze pytanie brzmi dziś nie tylko: „co AI potrafi?”, ale także: „kto za to odpowiada?”. I właśnie na to pytanie AI Act próbuje odpowiedzieć.
Najkrócej
- AI Act to unijne rozporządzenie 2024/1689, czyli bezpośrednio stosowane prawo we wszystkich państwach UE.
- Przepisy opierają się na klasyfikacji ryzyka: niedopuszczalne, wysokie, ograniczone/przejrzystościowe oraz minimalne.
- Część zastosowań AI jest zakazana, m.in. social scoring, manipulacyjne systemy wyrządzające szkodę czy niektóre formy biometrii.
- Systemy wysokiego ryzyka nie są zakazane, ale mają spełniać rygorystyczne wymogi: dokumentacja, nadzór człowieka, jakość danych, cyberbezpieczeństwo, ocena zgodności.
- Chatboty, deepfake’i i generatywna AI mają podlegać obowiązkom przejrzystości.
- Modele AI ogólnego przeznaczenia, czyli tzw. GPAI, mają osobny zestaw obowiązków, szczególnie jeśli mogą tworzyć ryzyko systemowe.
- Największa niepewność dotyczy dziś harmonogramu części przepisów dla systemów wysokiego ryzyka, bo Komisja zaproponowała jego zmianę w ramach Digital Omnibus.
Skąd wziął się AI Act i co właściwie reguluje
Sztuczna inteligencja przestała być tematem z konferencji technologicznych mniej więcej wtedy, gdy zaczęła pisać maile, streszczać dokumenty, generować obrazy, podpowiadać decyzje rekrutacyjne i odpowiadać klientom w bankach. Wtedy okazało się, że pytanie nie brzmi już: „czy AI się przyjmie?”, tylko: „na jakich zasadach będzie działać?”.
AI Act, czyli unijny akt w sprawie sztucznej inteligencji, jest odpowiedzią Europy na tę zmianę. Formalnie to rozporządzenie Parlamentu Europejskiego i Rady UE 2024/1689 z 13 czerwca 2024 r., opublikowane w Dzienniku Urzędowym UE 12 lipca 2024 r. i obowiązujące od 1 sierpnia 2024 r.
To ważne, bo rozporządzenie nie działa jak dyrektywa, którą każde państwo dopiero przepisuje do swojego prawa. Co do zasady obowiązuje bezpośrednio w całej Unii. Państwa członkowskie muszą jednak zbudować krajowy system nadzoru: wskazać organy, procedury, sposób przyjmowania skarg i egzekwowania przepisów.
W Polsce taki proces trwa. 31 marca 2026 r. Rada Ministrów przyjęła projekt ustawy o systemach sztucznej inteligencji. Według komunikatu KPRM ma on służyć stosowaniu unijnego aktu o AI i powołać Komisję Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, czyli krajowy organ nadzoru nad rynkiem AI. Projekt przewiduje też możliwość składania skarg przez obywateli oraz tworzenie piaskownic regulacyjnych dla innowacji. To jednak nadal informacja o projekcie ustawy, a nie o obowiązującej polskiej ustawie.
Samo unijne prawo nie próbuje opisać każdego możliwego narzędzia AI. Nie mówi: ten chatbot wolno, tamtego nie wolno; ten generator obrazów jest dobry, tamten zły. Zamiast tego przyjmuje logikę ryzyka. Liczy się nie tylko technologia, lecz także jej zastosowanie. Ten sam rodzaj modelu może być mało kontrowersyjny, gdy pomaga sortować zdjęcia z wakacji, i bardzo wrażliwy, gdy wspiera decyzję o przyznaniu kredytu, pracy albo świadczenia publicznego.
Komisja Europejska opisuje AI Act jako pierwsze kompleksowe ramy prawne dla sztucznej inteligencji na świecie. Celem ma być z jednej strony ochrona zdrowia, bezpieczeństwa i praw podstawowych, a z drugiej — utrzymanie warunków do rozwoju technologii i jednolitego rynku.
To napięcie będzie wracać przez cały tekst. AI Act jest bowiem jednocześnie prawem ochronnym i gospodarczym. Ma zabezpieczać ludzi przed najbardziej niebezpiecznymi zastosowaniami AI, ale też dawać firmom jedne reguły w całej UE. Europa nie chce 27 różnych porządków prawnych dla tej samej technologii. Chce jednego rynku, jednej siatki pojęć i jednego zestawu obowiązków.
Cztery poziomy ryzyka, czyli logika całego prawa
Najprościej AI Act można zrozumieć jak piramidę. Na samej górze są zastosowania niedopuszczalne — te mają być zakazane. Niżej są systemy wysokiego ryzyka — dozwolone, ale mocno regulowane. Jeszcze niżej znajdują się systemy objęte głównie obowiązkami przejrzystości, np. chatboty czy deepfake’i. Na dole są zastosowania minimalnego ryzyka, które nie dostają nowych szczególnych obowiązków z AI Act. Komisja Europejska opisuje właśnie cztery poziomy ryzyka: niedopuszczalne, wysokie, przejrzystościowe oraz minimalne lub zerowe.
To podejście jest bardziej praktyczne, niż może się wydawać. Unia nie mówi: „AI jest z natury niebezpieczna”. Mówi raczej: „niektóre zastosowania AI mogą być niebezpieczne, szczególnie tam, gdzie człowiek nie rozumie, dlaczego system podjął decyzję, albo nie ma realnej możliwości jej zakwestionowania”.
Przykład? Algorytm, który wybiera najtańszą trasę dostawy paczki, nie jest tym samym co system, który ocenia, czy kandydat nadaje się do pracy. Filtr antyspamowy nie jest tym samym co narzędzie wykorzystywane przez służby. Generator obrazów do zabawy nie jest tym samym co deepfake użyty do oszustwa albo manipulacji politycznej.
AI Act obejmuje zarówno podmioty publiczne, jak i prywatne — także spoza UE — jeżeli wprowadzają system AI lub model AI ogólnego przeznaczenia na rynek unijny, oddają go do użytku w UE albo używają go w Unii. Komisja wskazuje też wyjątki, m.in. dla działań badawczo-rozwojowych przed wypuszczeniem systemu na rynek oraz dla systemów przeznaczonych wyłącznie do celów wojskowych, obronnych lub bezpieczeństwa narodowego.
W praktyce oznacza to, że amerykańska, chińska czy brytyjska firma nie może po prostu powiedzieć: „nas nie dotyczy, bo nie jesteśmy z Europy”. Jeśli jej system trafia na unijny rynek albo jego wyniki są wykorzystywane w UE, przepisy mogą mieć zastosowanie.
Warto też uporządkować pojęcia. AI Act rozróżnia m.in. dostawców i podmioty stosujące systemy AI. Dostawca to w uproszczeniu ten, kto system rozwija lub wprowadza na rynek pod własną nazwą. Podmiot stosujący to ten, kto używa systemu w działalności zawodowej lub instytucjonalnej. Future of Life Institute w swoim podsumowaniu trafnie zwraca uwagę, że większość obowiązków spada na dostawców systemów wysokiego ryzyka, ale użytkownicy profesjonalni — w języku AI Act: deployers, czyli podmioty stosujące — także mają swoje obowiązki.
Dla zwykłego użytkownika najważniejsze jest co innego: AI Act nie tworzy jednego wielkiego zakazu sztucznej inteligencji. To raczej system znaków drogowych. Jedne rzeczy są zamknięte, przy innych trzeba mieć pozwolenie, dokumentację i nadzór, a przy jeszcze innych wystarczy jasne oznaczenie, że rozmawiamy z maszyną albo oglądamy treść wygenerowaną przez AI.
Co Unia chce zakazać bez dyskusji
Najostrzejsza część AI Act dotyczy praktyk zakazanych. Te przepisy zaczęły być stosowane 2 lutego 2025 r. Razem z nimi weszły w życie m.in. definicje oraz obowiązki dotyczące kompetencji w zakresie AI, czyli wymóg, aby dostawcy i podmioty stosujące systemy AI dbali o odpowiedni poziom wiedzy osób zajmujących się takimi systemami.
Lista zakazów jest odpowiedzią na obawy, które od lat pojawiały się w debacie o sztucznej inteligencji. Komisja wymienia osiem kategorii praktyk niedopuszczalnych. Chodzi m.in. o szkodliwą manipulację lub wprowadzanie w błąd z użyciem AI, wykorzystywanie podatności osób ze względu na wiek, niepełnosprawność lub sytuację społeczno-ekonomiczną, social scoring, określone formy predykcyjnej oceny ryzyka popełnienia przestępstwa, masowe scrapowanie internetu lub nagrań CCTV w celu budowania baz rozpoznawania twarzy, rozpoznawanie emocji w miejscu pracy i edukacji, biometryczną kategoryzację w celu wnioskowania o cechach chronionych oraz zdalną identyfikację biometryczną w czasie rzeczywistym w przestrzeni publicznej do celów ścigania, z wąskimi wyjątkami.
Brzmi technicznie, ale za tymi kategoriami stoją bardzo konkretne sytuacje.
Social scoring to system, w którym ludzie są oceniani na podstawie zachowań, cech osobistych lub statusu społecznego, a ta ocena może wpływać na ich dostęp do usług, praw lub możliwości. Manipulacyjne AI to np. narzędzie zaprojektowane tak, by wykorzystać słabość konkretnej grupy i doprowadzić do istotnej szkody. Rozpoznawanie emocji w pracy albo szkole budzi obawy, bo może zamienić zwykłą obecność człowieka w ciągłe odczytywanie mimiki, głosu lub gestów przez system, którego dokładność i sens społeczny są mocno dyskusyjne.
Najbardziej politycznie wrażliwa jest biometria. Parlament Europejski w swoim komunikacie wskazywał, że zakazane mają być m.in. systemy niedopuszczalnego ryzyka, w tym scoring obywateli oraz określone formy identyfikacji biometrycznej, ale z wyjątkami dla ścigania najpoważniejszych przestępstw. Użycie zdalnej identyfikacji biometrycznej w czasie rzeczywistym w miejscach publicznych może być dopuszczone tylko w ograniczonych przypadkach, np. przy poważnych zagrożeniach, i ma wymagać zgody sądu albo niezależnego organu.
To nie jest zatem absolutny zakaz każdej biometrii. Odblokowanie telefonu twarzą czy kontrola dokumentu na granicy to zupełnie inny przypadek niż identyfikowanie ludzi w tłumie. Komisja podkreśla, że zdalna identyfikacja biometryczna w przestrzeni publicznej może szczególnie mocno uderzać w prywatność, bo działa na dużych grupach osób, często bez ich aktywnego udziału. Nawet niewielki procent błędów może mieć poważne skutki, jeśli system działa na dworcu, stadionie albo w centrum miasta.
Tu widać filozofię AI Act: są takie zastosowania, których nie da się „naprawić” samą dokumentacją. Jeśli system zagraża podstawowym prawom w sposób uznany za nieakceptowalny, ma nie trafić na rynek albo nie być używany.
Systemy wysokiego ryzyka: nie zakaz, tylko ostry reżim
Największa część AI Act dotyczy nie zakazów, lecz systemów wysokiego ryzyka. To ważne rozróżnienie. System wysokiego ryzyka nie jest z definicji nielegalny. Może być potrzebny, użyteczny, a czasem wręcz korzystny. Ale ponieważ działa w obszarze, w którym błąd lub uprzedzenie może realnie zaszkodzić człowiekowi, musi spełnić mocniejsze wymagania.
Komisja wskazuje przykłady takich obszarów: infrastruktura krytyczna, edukacja, zatrudnienie i zarządzanie pracownikami, dostęp do podstawowych usług prywatnych i publicznych, ocena zdolności kredytowej, niektóre zastosowania w policji, migracji, azylu, kontroli granic, wymiarze sprawiedliwości i procesach demokratycznych, a także biometria, o ile nie jest już zakazana.
Parlament Europejski opisuje tę kategorię podobnie: systemy wysokiego ryzyka to takie, które mogą negatywnie wpływać na bezpieczeństwo lub prawa podstawowe. Wyróżnia dwie główne grupy: AI stosowaną w produktach objętych unijnymi przepisami bezpieczeństwa, np. w urządzeniach medycznych, samochodach, lotnictwie czy windach, oraz AI wykorzystywaną w konkretnych wrażliwych obszarach, które mają być rejestrowane w unijnej bazie danych.
Co to oznacza dla firmy albo instytucji? Przede wszystkim koniec z podejściem „kupujemy system, wrzucamy dane i zobaczymy, co wyjdzie”. Dostawca systemu wysokiego ryzyka ma zadbać m.in. o zarządzanie ryzykiem, jakość danych, dokumentację techniczną, rejestrowanie działania systemu, przejrzyste instrukcje dla użytkownika, nadzór człowieka, odporność, dokładność i cyberbezpieczeństwo. Komisja wskazuje też, że przed wprowadzeniem takiego systemu na rynek potrzebna jest ocena zgodności, a odpowiedzialność dostawcy nie kończy się w dniu sprzedaży. System trzeba monitorować przez cały cykl życia.
Podmioty stosujące systemy wysokiego ryzyka też nie są bierne. Muszą używać systemu zgodnie z instrukcją, monitorować jego działanie, reagować na ryzyka i poważne incydenty, a nadzór człowieka powierzyć osobom, które realnie mogą go wykonywać. Jeśli system działa w miejscu pracy, trzeba poinformować pracowników i ich przedstawicieli. Jeśli system pomaga podejmować decyzje dotyczące osoby fizycznej, ta osoba ma być o tym poinformowana. AI Act wprowadza także prawo do wyjaśnienia w przypadku decyzji wywołujących skutki prawne lub podobnie istotnie wpływających na człowieka.
To może być jedna z najbardziej odczuwalnych zmian dla obywateli. Nie chodzi tylko o to, że system ma być „zgodny z prawem” gdzieś w dokumentacji. Chodzi o to, że człowiek dotknięty decyzją ma mieć szansę zrozumieć, że AI odegrała w niej rolę, i domagać się sensownego wyjaśnienia.
Dla administracji i usług publicznych dochodzi jeszcze jeden element: ocena wpływu na prawa podstawowe. Komisja wyjaśnia, że dostawca może ograniczać ryzyko już na etapie projektowania systemu, ale niektóre ryzyka widać dopiero w konkretnym kontekście użycia. Inaczej działa narzędzie w prywatnej firmie, inaczej w urzędzie, szkole, szpitalu czy przy dostępie do świadczeń. Dlatego część podmiotów stosujących systemy wysokiego ryzyka ma przeprowadzać ocenę wpływu na prawa podstawowe i powiadamiać właściwy organ krajowy.
Najkrócej: AI Act próbuje przesunąć odpowiedzialność z etapu skandalu na etap projektowania i wdrożenia. Zamiast czekać, aż system kogoś skrzywdzi, firmy i instytucje mają wcześniej odpowiedzieć na pytania: jakie dane bierzemy, jak wykrywamy błędy, kto nadzoruje system, co robimy po incydencie i jak człowiek może zakwestionować wynik.
Generatywna AI, chatboty i deepfake’i
Kiedy większość osób słyszy dziś „sztuczna inteligencja”, myśli o narzędziach generatywnych: chatbotach, generatorach obrazów, modelach do tworzenia głosu, wideo albo kodu. AI Act traktuje je inaczej niż klasyczne systemy wysokiego ryzyka, choć nie zostawia ich bez zasad.
Pierwsza warstwa to przejrzystość. Jeśli człowiek rozmawia z systemem AI, powinien o tym wiedzieć. Jeśli AI generuje lub manipuluje obrazem, dźwiękiem albo wideo w sposób tworzący deepfake, trzeba to ujawnić. Jeśli system generuje tekst publikowany w celu informowania opinii publicznej o sprawach ważnych społecznie, również pojawiają się obowiązki oznaczania. Dostawcy systemów generatywnych mają też dbać o to, by wyniki były oznaczane w formacie nadającym się do odczytu maszynowego, o ile jest to technicznie wykonalne.
Druga warstwa to modele AI ogólnego przeznaczenia, czyli GPAI. To modele, które mogą być wykorzystywane do wielu różnych zadań i często stają się fundamentem dla kolejnych aplikacji. Duży model językowy może obsługiwać chatbota, narzędzie do analizy dokumentów, asystenta programisty, wyszukiwarkę wewnętrzną firmy albo system pomocy klienta. Dlatego AI Act reguluje nie tylko gotowe aplikacje, ale także pewne modele bazowe.
Od 2 sierpnia 2025 r. obowiązują przepisy dotyczące GPAI. Komisja wskazuje, że dostawcy takich modeli mają m.in. przygotowywać dokumentację techniczną, wdrażać politykę poszanowania prawa autorskiego i publikować streszczenie treści używanych do trenowania modelu. Modele uznane za niosące ryzyko systemowe mają dodatkowe obowiązki: ocenę i ograniczanie ryzyk, zgłaszanie incydentów oraz zabezpieczenia cyberbezpieczeństwa.
To właśnie tutaj spotykają się trzy największe spory o generatywną AI.
Pierwszy dotyczy przejrzystości. Twórcy, wydawcy i organizacje praw autorskich chcą wiedzieć, na jakich danych trenowane są modele. Firmy technologiczne odpowiadają, że nie zawsze da się prosto opisać gigantyczne zbiory danych, a zbyt szczegółowe wymogi mogą ujawniać tajemnice biznesowe.
Drugi dotyczy bezpieczeństwa. Najpotężniejsze modele mogą być użyte nie tylko do pisania maili, ale też do automatyzacji cyberataków, tworzenia instrukcji szkodliwych działań czy manipulacji informacyjnej na dużą skalę. Komisja wskazuje, że za modele z ryzykiem systemowym mogą zostać uznane m.in. te trenowane z wykorzystaniem bardzo dużych zasobów obliczeniowych, choć próg może być aktualizowany wraz z rozwojem technologii.
Trzeci spór dotyczy tego, kto w łańcuchu AI za co odpowiada. Jeśli firma A tworzy model bazowy, firma B buduje na nim aplikację, a firma C używa tej aplikacji do oceny klientów, to odpowiedzialność nie może rozpłynąć się w powietrzu. AI Act próbuje rozdzielić obowiązki między dostawców modeli, dostawców systemów i podmioty stosujące.
W lipcu 2025 r. Komisja opublikowała instrumenty pomocnicze dla dostawców GPAI, w tym kodeks praktyk, wytyczne dotyczące zakresu obowiązków oraz wzór publicznego streszczenia danych treningowych. Kodeks praktyk jest dobrowolnym narzędziem zgodności, a nie samym rozporządzeniem, ale Komisja i państwa członkowskie potwierdziły, że może pomagać dostawcom wykazać zgodność z AI Act.
To dobry przykład tego, jak AI Act będzie działał w praktyce. Sam akt prawny jest szkieletem. Mięśnie i ścięgna dopiero powstają: wytyczne, kodeksy praktyk, normy techniczne, szablony dokumentacji, narzędzia zgodności. Dlatego odpowiedź na pytanie „co dokładnie musi zrobić firma?” będzie w części zależeć nie tylko od brzmienia rozporządzenia, lecz także od dokumentów wykonawczych i standardów.
Kto będzie tego pilnował i jakie grożą kary
AI Act zakłada dwupoziomowy system nadzoru. Na poziomie unijnym ważną rolę ma Europejski Urząd ds. Sztucznej Inteligencji, czyli AI Office, szczególnie w obszarze modeli AI ogólnego przeznaczenia. Na poziomie państw członkowskich mają działać krajowe organy nadzoru rynku i właściwe organy krajowe. Do tego dochodzą AI Board, panel naukowy i forum doradcze.
W praktyce będzie to test nie tylko dla firm, ale też dla administracji. Żeby prawo działało, ktoś musi mieć kompetencje techniczne, prawne i organizacyjne, aby sprawdzać systemy, analizować dokumentację, reagować na skargi i prowadzić postępowania. To nie jest proste przy technologii, która zmienia się szybciej niż klasyczne produkty regulowane przez UE.
Kary są wysokie, choć ich konkretne stosowanie będzie zależało od okoliczności. Komisja w FAQ wskazuje progi: do 35 mln euro albo 7 proc. całkowitego światowego rocznego obrotu za naruszenia dotyczące praktyk zakazanych lub określonych wymogów związanych z danymi; do 15 mln euro albo 3 proc. obrotu za naruszenie innych obowiązków; oraz do 7,5 mln euro albo 1,5 proc. obrotu za przekazanie nieprawidłowych, niekompletnych lub wprowadzających w błąd informacji organom. Dla MŚP progi mają być liczone łagodniej, według niższej z dwóch wartości.
To poziom kar, który ma działać odstraszająco także na największe firmy technologiczne. Jednocześnie AI Act nie sprowadza się do straszenia sankcjami. W przepisach i dokumentach Komisji regularnie wraca wątek wsparcia innowacji: piaskownice regulacyjne, testowanie w warunkach rzeczywistych, uproszczenia dla mniejszych firm, AI Pact i AI Act Service Desk. Komisja opisuje AI Pact jako dobrowolną inicjatywę, która zachęca organizacje do wcześniejszego przygotowania się do obowiązków, a Service Desk i Single Information Platform jako narzędzia z informacjami, compliance checkerem i eksploratorem AI Act.
Na papierze brzmi to rozsądnie. W praktyce pojawią się trudne pytania. Czy mała firma tworząca narzędzie HR będzie w stanie udźwignąć dokumentację? Czy szkoła albo urząd będą potrafiły ocenić dostawcę systemu? Czy krajowy organ nadzoru będzie miał ekspertów, którzy rozumieją zarówno modele uczenia maszynowego, jak i prawa podstawowe? Czy firmy spoza UE będą traktowane tak samo jak europejskie?
AI Act może stać się dla AI tym, czym RODO stało się dla prywatności: europejskim standardem, który promieniuje poza kontynent. Może też stać się skomplikowanym systemem obowiązków, który najlepiej obsłużą duże firmy z działami prawnymi. To jedna z najważniejszych stawek najbliższych lat.
Co jest już pewne, a co nadal może się zmienić
Najpewniejsze jest to, że AI Act istnieje i obowiązuje. Nie jest projektem, luźną deklaracją ani komunikatem politycznym. Rozporządzenie weszło w życie 1 sierpnia 2024 r., a jego stosowanie rozłożono w czasie. Zakazy i obowiązki dotyczące kompetencji AI obowiązują od 2 lutego 2025 r. Przepisy o zarządzaniu i modelach AI ogólnego przeznaczenia obowiązują od 2 sierpnia 2025 r. Większość pozostałych przepisów ma być stosowana od 2 sierpnia 2026 r., a część wymogów dla systemów wysokiego ryzyka wbudowanych w regulowane produkty — od 2 sierpnia 2027 r.
Najmniej pewny jest dziś harmonogram dla części systemów wysokiego ryzyka. Komisja Europejska zaproponowała w listopadzie 2025 r. pakiet Digital Omnibus, który ma uprościć wdrażanie przepisów cyfrowych, w tym AI Act. Według Komisji problemem są m.in. opóźnienia w normach technicznych i przygotowaniu organów krajowych, dlatego zaproponowano powiązanie stosowania części obowiązków z dostępnością narzędzi wspierających zgodność. Sama Komisja podkreśla, że propozycja jest przedmiotem prac Parlamentu Europejskiego i Rady UE.
Parlament Europejski i Rada UE pracowały już nad swoimi stanowiskami. Parlamentarny Legislative Train wskazuje, że wspólny raport komisji IMCO i LIBE z marca 2026 r. opowiadał się za stałymi terminami opóźnionego stosowania przepisów o systemach wysokiego ryzyka. Rada przyjęła swoje podejście 13 marca 2026 r. i — według opisu Parlamentu — również skłaniała się ku stałym terminom: 2 grudnia 2027 r. dla samodzielnych systemów wysokiego ryzyka oraz 2 sierpnia 2028 r. dla systemów wysokiego ryzyka wbudowanych w produkty.
To trzeba oznaczyć bardzo wyraźnie: na dziś jest to proces legislacyjny, nie „nowe pewne terminy” obowiązujące tak samo jak AI Act. Dopóki zmiany nie zostaną ostatecznie przyjęte i opublikowane, bazowym punktem odniesienia pozostaje harmonogram z rozporządzenia 2024/1689.
Niepotwierdzone byłoby więc stwierdzenie, że „UE przesunęła AI Act” w całości albo że „systemy wysokiego ryzyka na pewno mają czas do 2028 r.”. Potwierdzone jest co innego: Komisja zaproponowała zmianę, Parlament i Rada pracowały nad stanowiskami, a dyskusja dotyczy głównie tego, jak dać firmom i organom więcej czasu bez rozmontowania ochronnej logiki AI Act.
W tle trwa też spór polityczny. Jedni mówią, że Europa musi szybciej regulować, bo AI już wpływa na pracę, edukację, bezpieczeństwo i informację publiczną. Drudzy ostrzegają, że zbyt ciężkie wymogi mogą utrudnić europejskim firmom rywalizację z USA i Chinami. Jeszcze inni odpowiadają, że brak regulacji też jest kosztem: dla osób błędnie ocenionych przez algorytm, dla pracowników monitorowanych przez systemy, dla obywateli zalewanych deepfake’ami i dla twórców, których prace mogły zostać wykorzystane do trenowania modeli bez jasnych zasad.
AI Act nie rozwiązuje wszystkich problemów sztucznej inteligencji. Nie odpowie sam na pytanie, jak zmieni się rynek pracy, czy modele generatywne naruszają prawa autorskie w konkretnych przypadkach, jak szkoły mają uczyć w epoce chatbotów i co zrobić z koncentracją mocy obliczeniowej w rękach kilku globalnych firm. Ale przesuwa debatę z poziomu zachwytu albo strachu na poziom odpowiedzialności.
I to jest być może najważniejsza zmiana. Sztuczna inteligencja przestaje być traktowana jak magia. Staje się produktem, usługą, infrastrukturą i narzędziem władzy. A skoro tak, ktoś musi wiedzieć, jak działa, ktoś musi ocenić ryzyko, ktoś musi poinformować człowieka, że rozmawia z maszyną, i ktoś musi ponieść konsekwencje, jeśli system wyrządzi szkodę.
Europa mówi: rozwijajcie AI, ale nie poza społeczną kontrolą. Dla jednych to hamulec. Dla innych — pas bezpieczeństwa. W najbliższych latach okaże się, czy da się mieć jedno i drugie.
Źródła
- Parlament Europejski — „Akt ws. sztucznej inteligencji: pierwsze przepisy regulujące sztuczną inteligencję”
- https://www.europarl.europa.eu/news/pl/headlines/society/20230601STO93804/akt-w-sprawie-sztucznej-inteligencji-ai-act
- EUR-Lex — „Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024”
- https://eur-lex.europa.eu/eli/reg/2024/1689/oj/eng
- Komisja Europejska / Shaping Europe’s Digital Future — „AI Act”
- https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
- Komisja Europejska / Shaping Europe’s Digital Future — „Navigating the AI Act”
- https://digital-strategy.ec.europa.eu/en/faqs/navigating-ai-act
- Komisja Europejska / Shaping Europe’s Digital Future — „General-purpose AI obligations under the AI Act”
- https://digital-strategy.ec.europa.eu/en/factpages/general-purpose-ai-obligations-under-ai-act
- Komisja Europejska / Shaping Europe’s Digital Future — „Commission publishes the Guidelines on prohibited artificial intelligence (AI) practices”
- https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act
- Future of Life Institute / EU Artificial Intelligence Act — „High-level summary of the AI Act”
- https://artificialintelligenceact.eu/high-level-summary/
- Kancelaria Prezesa Rady Ministrów — „Projekt ustawy o systemach sztucznej inteligencji”
- https://www.gov.pl/web/premier/projekt-ustawy-o-systemach-sztucznej-inteligencji2
- Parlament Europejski — „Digital Omnibus on AI”
- https://www.europarl.europa.eu/legislative-train/package-digital-package/file-digital-omnibus-on-ai
- Rada UE — „Council agrees position to streamline rules on Artificial Intelligence”
- https://www.consilium.europa.eu/en/press/press-releases/2026/03/13/council-agrees-position-to-streamline-rules-on-artificial-intelligence/
