Jak informuje agencja RBK, grupa robocza złożona z prawników, przedstawicieli firm konsultingowych i uczestników rynku zajmujących się rozwojem sztucznej inteligencji opracowała projekt regulacji prawnych dotyczących sztucznej inteligencji w Federacji Rosyjskiej. Zakazuje on używania systemów o „niedopuszczalnym poziomie ryzyka”, wprowadza etykietowanie treści i odpowiedzialność programistów za szkody wyrządzone przez sieci neuronowe.
Projekt ustawy reguluje:
• Wprowadzenie pojęcia sztucznej inteligencji (zespół rozwiązań technologicznych i programistycznych imitujących ludzkie funkcje poznawcze, obejmujący samouczenie się, wyszukiwanie rozwiązań bez ustalonego algorytmu oraz zapewnianie otrzymywania wyników porównywalnych z wynikami ludzkiej aktywności intelektualnej).
• Koncepcję technologii AI (obejmujących technologie przetwarzania obrazu komputerowego, przetwarzania języka naturalnego, rozpoznawania i syntezy mowy, inteligentnej analizy danych, uczenia maszynowego itp.).
• Koncepcję systemów AI (systemów informatycznych imitujących ludzkie funkcje poznawcze przy użyciu technologii wymienionych powyżej), twórca, operator i użytkownik takich systemów itp.
• Wprowadzenie wymogów dotyczących etykietowania systemów AI, tj. obowiązkowego oznaczenia informacyjnego, które będzie wskazywać na wykorzystanie AI podczas interakcji z użytkownikiem. Oznakowanie musi być „jasne, jednoznaczne i łatwo rozpoznawalne”. Musi zostać ono dostarczone przez operatora systemu AI przed każdą interakcją z użytkownikiem. Wymagania te nie będą dotyczyły systemów sztucznej inteligencji wykorzystywanych w zamkniętych procesach technologicznych, do wewnętrznej automatyzacji organizacji i szeregu innych.
• Wprowadzenie klasyfikacji systemów AI ze względu na poziom potencjalnego ryzyka:
systemy o niedopuszczalnym, wysokim, ograniczonym i minimalnym poziomie ryzyka. Proponuje się zakazanie w Rosji rozwoju i eksploatacji systemów sztucznej inteligencji, które mieszczą się w kategorii niedopuszczalnego poziomu ryzyka, czyli takich, które stanowią zagrożenie dla bezpieczeństwa jednostki, społeczeństwa i państwa, a także naruszają podstawowe prawa i wolności człowieka i obywatela;
w przypadku systemów wysokiego ryzyka (stosowanych w ochronie zdrowia, transporcie, finansach, egzekwowaniu prawa i innych obszarach, w których może to stwarzać poważne ryzyko dla życia, zdrowia, podstawowych praw i wolności obywateli) wprowadzenie obowiązkowej państwowej rejestracji i certyfikacji;
dla osób o ograniczonym poziomie ryzyka - wewnętrzne systemy kontroli jakości, certyfikacja dobrowolna.
• Wprowadzenie odpowiedzialności za spowodowanie szkody na życiu, zdrowiu lub mieniu dla osób zaangażowanych w rozwój i obsługę systemów sztucznej inteligencji. Jednak dokument stanowi, że deweloper nie będzie ponosił odpowiedzialności, jeśli podjął wszelkie niezbędne środki w celu zapobieżenia szkodzie, jeśli szkoda powstała z powodu naruszenia zasad korzystania z systemu, a w kilku innych wyjątkach operator systemów AI zostanie zwolniony z odpowiedzialności, jeśli udowodni, że szkoda powstała z winy dewelopera w wyniku naruszenia przez użytkownika zasad korzystania z systemu itp. Proponuje się wprowadzenie obowiązkowego ubezpieczenia odpowiedzialności cywilnej dla operatorów systemów AI wysokiego ryzyka.
• Aby ustalić, kto jest właścicielem praw do wyniku działalności intelektualnej stworzonego przy użyciu sztucznej inteligencji, proponuje się skupić na tym, czy dana osoba wniosła znaczący wkład twórczy (czy określiła parametry i kryteria stworzenia wyniku, czy dokonała twórczej selekcji i poprawek, czy podejmowała twórcze decyzje w procesie tworzenia). Jeżeli taki wkład został wniesiony, to wyłączne prawo do wyniku powinno przysługiwać tej osobie; jeśli nie, to operatorowi systemu AI (ważne 50 lat).
Zakłada się, że jeśli dokument zostanie przyjęty w obecnej formie (choć dotychczas nie został przedstawiony Dumie, a rząd nie planuje uregulowania prawnego tej kwestii w najbliższych dwóch latach), operatorzy i twórcy systemów AI będą musieli dostosować się do jego wymagań w ciągu roku.
Regulacje AI
W 2024 r. Parlament Europejski opublikował unijny akt prawny w sprawie sztucznej inteligencji, który obejmuje wszystkie obszary zastosowań sieci neuronowych.
Zakazano stosowania systemów wykorzystujących sztuczną inteligencję do podświadomej manipulacji lub wykorzystywania ludzkich słabości, co może prowadzić do szkód fizycznych lub psychicznych, nieuporządkowanego korzystania ze zdalnej identyfikacji biometrycznej w czasie rzeczywistym w miejscach publicznych przez organy ścigania lub stosowania przez władze „ocen społecznych” uzyskiwanych za pomocą sztucznej inteligencji w celu niesprawiedliwej dyskryminacji osób lub grup.
Systemy wysokiego ryzyka (czyli takie, które stanowią poważne zagrożenie dla zdrowia, bezpieczeństwa lub podstawowych praw człowieka) muszą przejść obowiązkową ocenę zgodności przed wprowadzeniem ich na rynek.
Ustawa wprowadziła również wymóg obowiązkowego etykietowania treści związanych ze sztuczną inteligencją w przypadku graczy, których produkty i usługi są dostępne w Unii Europejskiej, a także w przypadku Europejczyków mieszkających poza UE. Niedopełnienie tego wymogu będzie skutkowało karą pieniężną w wysokości do 40 milionów euro lub do 7% obrotów przedsiębiorstwa naruszającego przepisy.
Dyskusje na temat wprowadzenia etykietowania treści związanych ze sztuczną inteligencją trwają również w USA, a odpowiedni projekt zostanie przedstawiony w marcu 2024 r.
W marcu 2025 r. Chiny zatwierdziły nowe zasady etykietowania treści generowanych przez sieci neuronowe; przepisy te wejdą w życie 1 września. Zgodnie z nimi platformy i deweloperzy muszą zgłaszać, że ich usługi tworzą treści z wykorzystaniem sieci neuronowych. Sklepy z aplikacjami muszą z kolei sprawdzić, jak dokładnie taka treść jest oznaczana. Środek ten ma na celu zwalczanie dezinformacji.
W Rosji dyskusja na temat wprowadzenia etykietowania systemów AI rozpoczęła się już w 2022 roku.
Więcej - https://www.rbc.ru/technology_and_media/11/04/2025/67f7dc399a79477fdd97bf30