AI Act to pierwsze na świecie tak kompleksowe rozporządzenie, które ma zapewnić, że rozwój i wykorzystanie tej technologii będą zgodne z wartościami europejskimi, takimi jak bezpieczeństwo i przejrzystość. AI Act jest bezpośrednio obowiązującym prawem, co oznacza, że jego przepisy muszą być respektowane w całej Unii bez potrzeby dodatkowej implementacji na poziomie krajowym. To rozporządzenie ustanawia ramy, które różnicują obowiązki dostawców i użytkowników AI w zależności od potencjalnego ryzyka dla społeczeństwa i gospodarki. Ważne przepisy weszły w życie. Co się zmieni? Akt o Sztucznej Inteligencji wprowadza klasyfikację systemów AI na cztery kategorie ryzyka: systemy o wysokim ryzyku, technologie o ograniczonym i minimalnym wpływie, oraz systemy nieakceptowalne, które są zakazane w Unii. Systemy wysokiego ryzyka, takie jak te stosowane w edukacji czy służbie zdrowia, muszą spełniać surowe wymagania, aby mogły być dostępne na rynku unijnym. Dostawcy muszą przeprowadzać szczegółowe analizy ryzyka, a użytkownicy zyskają prawo do odwołania się od decyzji podejmowanych przez AI. Jednocześnie technologie nieakceptowalne, które zagrażają podstawowym prawom obywateli, takie jak systemy masowego monitorowania czy profilowania, zostaną całkowicie wykluczone z użycia. Rozporządzenie zabrania również stosowania tzw. systemów punktowania społecznego, wzorowanych na chińskim systemie ocen obywateli, a także technologii monitorujących emocje w miejscach pracy i nauki. AI nie będzie mogła być używana do śledzenia obywateli ani zbierania ich wizerunków bez wyraźnej zgody sądowej lub urzędowej, nawet w kontekście działań antyterrorystycznych. Te przepisy podkreślają dążenie Unii Europejskiej do stworzenia bezpiecznej i etycznej przestrzeni dla innowacji technologicznych, jednocześnie chroniąc prawa człowieka i ograniczając potencjalne nadużycia związane z wykorzystaniem sztucznej inteligencji. Przeczytaj też: Nowe auta "donoszą" na kierowców. Czy będą z tego mandaty? Jak będzie przebiegało wdrażanie AI Act w Polsce? Wdrażanie Aktu o Sztucznej Inteligencji w Polsce będzie przebiegało etapowo, zgodnie z harmonogramem przyjętym przez Unię Europejską. Już w lutym 2025 roku zaczną obowiązywać przepisy zakazujące stosowania szczególnie niebezpiecznych systemów AI w całej Unii. Będą to systemy uznane za niedopuszczalne, takie jak te stosujące masowe monitorowanie obywateli czy profilowanie ich zachowań w sposób zagrażający podstawowym prawom człowieka. Wprowadzenie tych regulacji wymaga od polskich instytucji odpowiednich przygotowań, w tym identyfikacji i eliminacji potencjalnie niebezpiecznych systemów obecnych na rynku. W sierpniu 2025 roku w życie wejdą przepisy kluczowe dla nadzoru nad sztuczną inteligencją, obejmujące m.in. wyznaczenie krajowych organów odpowiedzialnych za monitorowanie i egzekwowanie regulacji dotyczących AI. W Polsce odpowiedzialność za nadzór nad AI prawdopodobnie przypadnie nowo utworzonemu urzędowi ds. sztucznej inteligencji, działającemu przy Ministerstwie Cyfryzacji. Te przepisy będą także definiować zasady dotyczące ogólnego przeznaczenia modeli AI i określać kary za ich nieprzestrzeganie. Firmy łamiące te regulacje będą musiały liczyć się z poważnymi konsekwencjami finansowymi, co ma na celu zapewnienie zgodności z nowym prawem. Ostateczne wdrożenie AI Act, które obejmuje przepisy dotyczące systemów wysokiego ryzyka, planowane jest na sierpień 2026 roku. W przypadku niektórych systemów zintegrowanych z produktami podlegającymi osobnym normom technicznym termin ten może zostać przesunięty do sierpnia 2027 roku. Implementacja przepisów wymagać będzie od polskich przedsiębiorstw dokładnej analizy ryzyka nowych inwestycji technologicznych oraz ich zgodności z normami bezpieczeństwa.