UE postanowiła wprowadzić pierwsze na świecie kompleksowe przepisy regulujące ten sektor. AI Act UE ma na celu stworzenie bezpiecznego, transparentnego i etycznego środowiska dla AI, ale wprowadza także liczne ograniczenia, które mogą wpłynąć negatywnie na rozwój technologiczny w Europie.
Najważniejsze Postanowienia AI Act UE
Klasyfikacja Systemów AI według Poziomu Ryzyka
AI Act UE przyjmuje podejście oparte na analizie ryzyka, dzieląc systemy AI na cztery kategorie:
- Systemy o Niedopuszczalnym Ryzyku:
- Zakazane są technologie zagrażające prawom człowieka, takie jak manipulacje behawioralne, masowe rozpoznawanie twarzy w miejscach publicznych czy punktacja społeczna na wzór chińskiego systemu.
- Systemy Wysokiego Ryzyka:
- Obejmują AI stosowane w medycynie, edukacji, rekrutacji, finansach czy sądownictwie.
- Przykłady: automatyczne systemy diagnozowania chorób, algorytmy wspierające podejmowanie decyzji w sprawach sądowych czy aplikacje analizujące zdolność kredytową.
- Wymagają certyfikacji, nadzoru ludzkiego i oceny zgodności przed wdrożeniem.
- Systemy o Ograniczonym Ryzyku:
- Obejmują chatboty i wirtualnych asystentów, które muszą informować użytkownika, że są systemami AI.
- Przykłady: asystenci głosowi, systemy rezerwacji online czy aplikacje tłumaczeniowe.
- Systemy o Minimalnym Ryzyku:
- Przykłady to filtry antyspamowe czy rekomendacje wideo, które nie wymagają dodatkowych regulacji.
- Systemy te działają automatycznie, mają ograniczony wpływ na prawa użytkowników i nie podlegają szczególnej kontroli.
Ograniczenia dla Rozwoju?
Choć przepisy mają zapewnić bezpieczeństwo użytkowników, nie sposób pominąć przykładów, gdzie mogą działać na niekorzyść innowacji:
- Brak Funkcji AI w Europejskich Produktach: Przykładem może być najnowszy model iPhone’a, który w USA oferuje zaawansowane funkcje AI, takie jak personalizowane przetwarzanie obrazu i interakcje głosowe. W UE niektóre z tych funkcji są wyłączone ze względu na przepisy ochrony danych i brak zgodności z AI Act.
- Wysokie Koszty Certyfikacji: Firmy muszą ponosić wysokie koszty związane z certyfikacją systemów AI, co może skutecznie zniechęcić start-upy do wchodzenia na rynek europejski.
- Opóźnienia we Wdrożeniach: Skomplikowane procedury zgodności mogą prowadzić do opóźnień w wdrażaniu nowych rozwiązań technologicznych, ograniczając konkurencyjność europejskich firm.
Kontekst Polityczny
Regulacje AI w Europie są szczególnie istotne w kontekście międzynarodowej rywalizacji technologicznej. Stany Zjednoczone i Chiny przyjmują odmienne podejścia do rozwoju AI:
- Chiny: Stawiają na szybki rozwój technologii z minimalnymi ograniczeniami, co pozwala im zdominować globalny rynek AI, ale kosztem prywatności i praw obywatelskich.
- USA: Przyjmują bardziej liberalne podejście, koncentrując się na wspieraniu innowacji poprzez sektor prywatny, z ograniczoną interwencją państwa.
Wprowadzenie AI Act UE może sprawić, że europejskie firmy technologiczne staną przed wyzwaniami związanymi z wysokimi kosztami certyfikacji i zgodności. Jednakże istnieje ryzyko, że regulacje pozostaną odizolowane do Europy, a bardziej liberalne podejścia w USA i Chinach pozwolą tamtejszym firmom na wyprzedzenie europejskich konkurentów na globalnym rynku. Quo Vadis Europo?
Link do rozporządzenia w języku polskim
Dodatkowe informacje i przewodnik po Akcie w języku angielskim
opracowanie Krzysztof BBX Rządek