12 lipca 2024 r. w dzienniku urzędowym UE ogłoszono oficjalny tekst AI Act. Możemy zatem z całą pewnością określić istotne daty związane z wejściem w życie i obowiązkiem stosowania AI Act:
- rozporządzenie stosuje się od dnia 2 sierpnia 2026 r., jednakże
- rozdziały I (przepisy ogólne) i II (zakazane praktyki) stosuje się od dnia 2 lutego 2025 r.
- rozdział III sekcja 4 (systemy AI wysokiego ryzyka - organy notyfikujące i jednostki notyfikowane), rozdział V (modele AI ogólnego przeznaczenia), rozdział VII (zarządzanie) i rozdział XII (kary) oraz art. 78 (poufność) stosuje się od dnia 2 sierpnia 2025 r., z wyjątkiem art. 101 (kary pieniężne dla dostawców modeli AI ogólnego przeznaczenia),
- art. 6 ust. 1 (zasady klasyfikacji systemów AI wysokiego ryzyka) i odpowiadające mu obowiązki ustanowione w niniejszym rozporządzeniu stosuje się od dnia 2 sierpnia 2027 r.
Jakie będą konsekwencje dla biznesu?
Poniżej przedstawiono obowiązki wynikające z AI Act dla przedsiębiorców, którzy tworzą rozwiązania AI oraz dla podmiotów, które korzystają z rozwiązań wspieranych przez AI.
Kategoria |
Przedsiębiorcy tworzący rozwiązania AI |
Podmioty korzystające z rozwiązań wspieranych przez AI |
Zarządzanie ryzykiem |
Wdrażanie systemu zarządzania ryzykiem w celu identyfikacji i ograniczania ryzyk związanych z systemami AI. |
Zapewnienie, że używane systemy AI są zgodne z protokołami zarządzania ryzykiem i są regularnie oceniane pod kątem ryzyk. |
Zarządzanie danymi |
Zapewnienie wysokiej jakości zbiorów danych do szkolenia modeli AI, w tym odpowiednie zarządzanie danymi i dokumentacja. |
Weryfikacja, że systemy AI korzystają z wiarygodnych danych oraz sprawdzenie praktyk zarządzania danymi dostawców rozwiązań AI. |
Przejrzystość i dokumentacja |
Prowadzenie kompleksowej dokumentacji systemów AI, w tym projektowania, rozwoju i testowania. |
Wymaganie dostępu do dokumentacji systemów AI, aby zrozumieć funkcjonalność i ograniczenia używanych rozwiązań AI. |
Nadzór człowieka |
Wdrażanie środków zapewniających skuteczny nadzór człowieka nad systemami AI, umożliwiający interwencję i zarządzanie nimi w razie potrzeby. |
Ustanowienie protokołów nadzoru człowieka w celu monitorowania działania systemów AI i interweniowania w razie potrzeby. |
Bezpieczeństwo i wydajność |
Regularne testowanie systemów AI w celu zapewnienia, że spełniają one standardy bezpieczeństwa i wydajności. |
Weryfikacja, że używane systemy AI są testowane i certyfikowane pod kątem spełniania kryteriów bezpieczeństwa i wydajności. |
Odpowiedzialność |
Przypisanie jasnych odpowiedzialności za zgodność z wymaganiami AI Act w organizacji. |
Zapewnienie odpowiedzialności za używane systemy AI, w tym zgodność z wymogami prawnymi i regulacyjnymi. |
Obowiązki sprawozdawcze |
Zgłaszanie istotnych incydentów i awarii systemów AI odpowiednim organom. |
Utrzymywanie procedury zgłaszania wszelkich problemów lub awarii systemów AI dostawcom i organom nadzorczym. |
Informacje dla użytkowników |
Dostarczanie użytkownikom jasnych informacji na temat obsługi systemów AI i rozumienia ich wyników. |
Pozyskiwanie od dostawców kompleksowych informacji na temat działania i wyników systemów AI w celu ich właściwego użytkowania. |
AI = nowe obowiązki dla przedsiębiorców
Niezależnie od tego, czy przedsiębiorstwo dostarcza, czy korzysta z rozwiązań implementujących AI, już niebawem pojawi się zestaw obowiązków, które będą legalizować takie praktyki.
Oczywiście reglamentacja AI odnosi się do poszczególnych dziedzin oraz poziomów ryzyka, niemniej podstawą dla określenia ich zakresu jest dokonanie rzetelnej inwentaryzacji procesów i systemów.
Zarówno w tym zakresie, jak i również w kwestii szerszego compliance w przedsiębiorstwach, doświadczony zespół naszej kancelarii służy wsparciem. Napisz do nas na info@dudkowiak.com.