Jakie systemy są zakazane w AI Act?
- Paweł Janicki
- 15 cze
- 3 minut(y) czytania
Zaktualizowano: 16 cze

Unia Europejska zrobiła ważny krok w stronę uregulowania sztucznej inteligencji. Przyjęcie tzw. AI Act, czyli aktu o sztucznej inteligencji, to istotny sygnał dla firm technologicznych na całym świecie. W centrum tego aktu znalazły się m.in. zakazy – rozwiązania, które uznano za zbyt ryzykowne, nieakceptowalne lub po prostu niezgodne z wartościami UE. Co to oznacza w praktyce? Jakie systemy AI są już dziś niedozwolone, niezależnie od tego, czy służą do celów komercyjnych, administracyjnych czy politycznych?
Zakazy w AI Act mają charakter bezwzględny – pewnych technologii po prostu nie wolno stosować, niezależnie od tego, kto z nich korzysta, w jakim celu i na jaką skalę. Przepisy te obowiązują już od momentu wejścia w życie aktu, bez okresów przejściowych, co jest ewenementem w unijnym prawodawstwie. Zakazane są systemy, które uznano za rażąco naruszające prawa podstawowe człowieka – jego prywatność, wolność, autonomię decyzyjną czy godność.
Pierwszą grupą zakazanych rozwiązań są systemy wykorzystujące tzw. techniki podprogowe, które mają na celu manipulację zachowaniem ludzi. Chodzi o sytuacje, w których sztuczna inteligencja działa w sposób ukryty – tak, by wpływać na decyzje użytkownika, który nie wie, że jest manipulowany. Zakaz ten nie dotyczy zwykłego marketingu czy rekomendacji produktów, ale bardziej zaawansowanych scenariuszy, w których AI „przewiduje” i modeluje nasze reakcje, wykorzystując np. wiedzę o słabościach poznawczych lub emocjonalnych. Przykład? System, który subtelnie modyfikuje treści w aplikacji edukacyjnej tak, by uczeń podejmował określone decyzje – nie z myślą o lepszym wyniku, lecz w interesie dostawcy oprogramowania. To manipulacja, której celem nie jest dobro użytkownika, lecz osiągnięcie ukrytych korzyści.
Równie surowo potraktowano systemy wykorzystujące tzw. podatność grup wrażliwych. Mowa tu o osobach, które ze względu na wiek, niepełnosprawność lub inne cechy są szczególnie narażone na wpływ technologii. Zakazane są rozwiązania, które celowo wykorzystują tę podatność – np. aplikacje skierowane do dzieci, które mają za zadanie nakłaniać je do określonych zachowań, korzystając z ich ograniczonej zdolności rozumienia konsekwencji. UE uznała, że ochrona takich grup musi mieć charakter bezwzględny. Nie wolno więc budować modeli AI, które czerpią korzyści z braku doświadczenia, słabości czy zależności użytkownika.
Szczególną uwagę zwrócono też na tzw. social scoring, czyli ocenianie obywateli przez pryzmat danych na ich temat. Zakazano tworzenia i stosowania systemów, które automatycznie oceniają ludzi na podstawie ich zachowania – np. stylu życia, wykształcenia, historii zakupów czy interakcji online – i przypisują im oceny, które wpływają na dostęp do usług, pracy czy edukacji. UE nie chce, by jakakolwiek instytucja – publiczna czy prywatna – decydowała o wartości obywatela na podstawie jego cyfrowego profilu. Przykłady? Systemy podobne do tych stosowanych w Chinach, które faworyzują osoby „pożądane społecznie”, a penalizują tych, którzy zachowują się „niezgodnie z normami”.
Kolejny zakaz dotyczy stosowania zdalnej biometrii do celów egzekwowania prawa – w czasie rzeczywistym i w przestrzeni publicznej. Chodzi tu głównie o rozpoznawanie twarzy przez kamery monitoringu, wykorzystywane przez organy ścigania do identyfikacji osób na ulicach czy w metrze. Zasada jest jasna: taka technologia może być stosowana tylko w ściśle określonych, wyjątkowych sytuacjach – np. w ramach ścigania poważnych przestępstw, pod nadzorem sądu. Co ważne, nie chodzi o całkowity zakaz rozpoznawania twarzy jako takiego, lecz o ograniczenie jego użycia w czasie rzeczywistym i na masową skalę. Obawy dotyczą m.in. ryzyka masowej inwigilacji i naruszenia prawa do prywatności obywateli.
AI Act zabrania również tworzenia tzw. systemów wykrywania emocji w miejscu pracy i w szkołach. Choć technologia ta brzmi nowocześnie i intrygująco, UE uznała ją za zbyt inwazyjną. Analiza mikroekspresji twarzy, tonu głosu czy postawy ciała, by „ocenić” stan emocjonalny pracownika lub ucznia, może prowadzić do stygmatyzacji, nieuczciwej oceny i naruszenia granic prywatności. W praktyce oznacza to, że firmy nie mogą wdrażać systemów monitorujących emocje pracowników, np. w trakcie rozmów z klientami, w celu „optymalizacji” wydajności.
Na koniec warto wspomnieć o zakazie tzw. predykcyjnego profilowania w kontekście prewencji przestępstw. Chodzi o sytuacje, w których AI ma przewidywać, kto może popełnić przestępstwo, bazując na danych z przeszłości. Tego typu systemy są krytykowane za tendencyjność, brak transparentności i ryzyko dyskryminacji – np. przypisywania wyższej skłonności do przestępstw osobom z określonych środowisk czy grup społecznych. UE jasno wskazuje, że takie praktyki nie są dopuszczalne – bo nie można karać nikogo za coś, czego jeszcze nie zrobił, na podstawie „cyfrowych przesłanek”.
Wszystkie te zakazy mają wspólny mianownik – ochronę praw człowieka. AI Act nie jest wymierzony w technologię jako taką, lecz w konkretne zastosowania, które mogą wyrządzić realną krzywdę lub naruszyć podstawowe wolności. Dla firm, które rozwijają lub wdrażają sztuczną inteligencję, oznacza to konieczność uważnej analizy zgodności projektowanych rozwiązań z przepisami prawa. Dla prawników – nowy, dynamicznie rozwijający się obszar doradztwa. I choć sama regulacja budzi emocje, jedno jest pewne: AI w UE musi działać odpowiedzialnie.
Paweł Janicki
Radca prawny IP LL.M.
Comentarios