Kodeks dla AI
Kodeks postępowania w zakresie sztucznej inteligencji ma pomóc przemysłowi w przestrzeganiu przepisów aktu w sprawie sztucznej inteligencji ogólnego przeznaczenia, które wejdą w życie 2 sierpnia 2025 r.
Komisja Europejska otrzymała ostateczną wersję kodeksu postępowania w zakresie sztucznej inteligencji ogólnego przeznaczenia, dobrowolnego narzędzia opracowanego przez 13 niezależnych ekspertów, przy udziale ponad 1000 zainteresowanych stron, w tym dostawców modeli, małych i średnich przedsiębiorstw, pracowników akademickich, ekspertów ds. bezpieczeństwa sztucznej inteligencji, podmiotów praw autorskich i organizacji społeczeństwa obywatelskiego.
Kodeks ma pomóc przemysłowi w przestrzeganiu przepisów aktu w sprawie sztucznej inteligencji ogólnego przeznaczenia, które wejdą w życie 2 sierpnia 2025 r. Przepisy stają się wykonalne przez Urząd Komisji ds. Sztucznej Inteligencji rok później w odniesieniu do nowych modeli, a dwa lata później w odniesieniu do istniejących modeli. Ma to na celu zapewnienie, aby modele AI ogólnego przeznaczenia wprowadzane na rynek europejski – w tym te o największej mocy – były bezpieczne i przejrzyste.
Kodeks składa się z trzech rozdziałów: Przejrzystość i prawo autorskie, zarówno w odniesieniu do wszystkich dostawców modeli AI ogólnego przeznaczenia, jak i bezpieczeństwa i ochrony, istotne tylko dla ograniczonej liczby dostawców najbardziej zaawansowanych modeli.
Przejrzystość, prawa autorskie, bezpieczeństwo i ochrona
Ponieważ modele AI ogólnego przeznaczenia stanowią podstawę wielu systemów AI w UE, akt w sprawie AI pomaga dostawcom zapewnić wystarczającą przejrzystość. Umożliwia to dostawcom integrację tych modeli z ich produktami. Rozdział kodeksu dotyczący przejrzystości zawiera przyjazny dla użytkownika wzór formularza dokumentacji, który umożliwia dostawcom łatwe dokumentowanie niezbędnych informacji w jednym miejscu.
Rozdział Kodeksu dotyczący praw autorskich oferuje dostawcom praktyczne rozwiązania umożliwiające wprowadzenie polityki zgodnej z unijnym prawem autorskim.
Niektóre modele AI ogólnego przeznaczenia mogą wiązać się z ryzykiem systemowym, takim jak ryzyko dla praw podstawowych i bezpieczeństwa, w tym obniżenie barier w rozwoju broni chemicznej lub biologicznej, lub ryzykiem związanym z utratą kontroli nad modelem. W akcie w sprawie sztucznej inteligencji nałożono na dostawców modeli obowiązek oceny i ograniczania tego ryzyka systemowego. Rozdział dotyczący bezpieczeństwa i ochrony zawiera odpowiednie najnowocześniejsze praktyki w zakresie zarządzania ryzykiem systemowym.