W dobie gwałtownego rozwoju sztucznej inteligencji, zarówno jej zwolennicy, jak i przeciwnicy zgadzają się, że obszar ten wymaga regulacji. 2024 rok zapisał się w historii jako moment przełomowy, gdy na początku sierpnia Unia Europejska wprowadziła w życie długo oczekiwany akt ws. sztucznej inteligencji (AI Act). To pierwsze w historii ramy prawne dotyczące sztucznej inteligencji, które odnoszą się do zagrożeń związanych ze sztuczną inteligencją i mają na celu zapewnienie bezpieczeństwa, przejrzystości oraz zgodności z europejskimi wartościami w rozwoju i stosowaniu AI.
Akt ws. sztucznej inteligencji jest odpowiedzią na rosnące zapotrzebowanie na jasne wytyczne w obszarze rozwoju technologii AI, które w ostatnich latach zyskały na znaczeniu nie tylko w przemyśle, ale także w życiu codziennym. Transformacja cyfrowa jest jednym z głównych priorytetów Unii Europejskiej. „W ramach swojej strategii transformacji cyfrowej, UE chce uregulować sztuczną inteligencję (AI) w sposób zapewniający lepsze warunki do rozwoju i wykorzystania tej innowacyjnej technologii. Sztuczna inteligencja może przynieść wiele korzyści – np. lepszą opiekę zdrowotną, bezpieczniejszy i czystszy transport, bardziej wydajną produkcję oraz tańszą i bardziej zrównoważoną energię.”1
W ramach nowych przepisów zostały określone obowiązki dostawców i użytkowników w zależności od poziomu ryzyka reprezentowanego przez sztuczną inteligencję.
Systemy AI niedopuszczalnego ryzyka, czyli uważane za zagrożenie dla ludzi, zostaną zakazane:
- poznawczo-behawioralna manipulacja ludźmi lub określonymi wrażliwymi grupami,
- identyfikacja biometryczna i kategoryzacja osób fizycznych,
- scoring (klasyfikacja punktowa) obywateli,
- systemy identyfikacji biometrycznej działające w czasie rzeczywistym i zdalnie, takie jak rozpoznawanie twarzy.
Systemy AI wysokiego ryzyka, czyli systemy negatywnie wpływające na bezpieczeństwo lub prawa podstawowe zostaną podzielone na dwie kategorie:
- Systemy SI stosowane w produktach objętych unijnymi przepisami dotyczącymi bezpieczeństwa produktów (np. zabawki, lotnictwo, samochody, urządzenia medyczne)
- – Zarządzanie i eksploatacja infrastruktury krytycznej.
- Edukacja i szkolenie zawodowe.
- Zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia.
- Dostęp do i korzystanie z podstawowych usług prywatnych oraz usług i korzyści publicznych.
- Ściganie przestępstw.
- Zarządzanie migracją, azylem i kontrolą granic.
- Pomoc w interpretacji prawnej i stosowaniu prawa.
Przepisy Aktu będą wdrażane w Polsce stopniowo – będą obowiązywać po upływie 24 miesięcy od jego ogłoszenia (w przypadku części przepisów te terminy to kolejno 6, 12 i 36 miesięcy).
Wzrasta zapotrzebowanie na umiejętności związane z zrozumieniem działania systemów AI, zarządzaniem danymi oraz zapewnieniem zgodności z nowymi przepisami. Specjaliści muszą rozwijać swoją wiedzę w zakresie technologii sztucznej inteligencji, etyki algorytmów oraz zasad ochrony prywatności i bezpieczeństwa. Wzrosła również potrzeba posiadania kompetencji w zakresie tworzenia i audytowania modeli AI w zgodzie z regulacjami prawnymi, co wymaga znajomości zarówno aspektów technicznych, jak i prawnych tej technologii.
Nie ulega jednak wątpliwości, że Akt ws. sztucznej inteligencji jest krokiem w stronę zrównoważonego i odpowiedzialnego rozwoju technologii. To bez wątpienia krok milowy w regulacji technologii, która rewolucjonizuje naszą przyszłość. Jednak czy uda się osiągnąć zamierzone cele, jednocześnie nie hamując innowacji? Przeciwnicy obawiają się, że regulacje mogą je zahamować i ograniczyć konkurencyjność europejskich firm na globalnym rynku. Jedno jest pewne – wprowadzenie tych przepisów to początek nowej epoki w zarządzaniu sztuczną inteligencją. Co sądzisz na ten temat? Zapraszam do dyskusji w komentarzach poniżej.
Więcej na temat aktu można przeczytać pod tym linkiem.
© AndSus – stock.adobe.com
Dodaj komentarz
Musisz się zalogować, aby móc dodać komentarz.