Amerykańska ustawa COPIED: Ochrona Dzieł Twórców przed Sztuczną Inteligencją

W dobie dynamicznego rozwoju technologii sztucznej inteligencji (AI), ochrona praw autorskich staje się coraz bardziej skomplikowana. Sztuczna inteligencja może generować treści, które trudno odróżnić od oryginalnych dzieł twórców. Aby przeciwdziałać tym wyzwaniom, dwupartyjna grupa senatorów wprowadziła nową ustawę – Content Origin Protection and Integrity from Edited and Deepfaked Media Act (COPIED Act). Ustawa ta ma na celu ułatwienie uwierzytelniania i wykrywania treści generowanych przez AI oraz ochronę twórców przed nieautoryzowanym wykorzystaniem ich prac przez modele AI.

Omówienie Ustawy COPIED

Ustawa COPIED wymaga, aby Narodowy Instytut Standaryzacji i Technologii (NIST) opracował standardy i wytyczne do potwierdzania pochodzenia treści oraz wykrywania treści syntetycznych, na przykład poprzez znakowanie wodne. Dodatkowo, akt zobowiązuje narzędzia AI, które tworzą lub obsługują treści dziennikarskie i twórcze, do uwzględniania informacji o pochodzeniu i zabrania usuwania tych danych. Co ważne, ustawa zabrania wykorzystywania tak oznaczonych treści do szkolenia modeli AI bez wyraźnej zgody ich właścicieli.

Ochrona Prawna i Egzekwowanie

Zgodnie z ustawą COPIED, właściciele treści, w tym nadawcy, artyści i gazety, mogą podejmować działania prawne przeciwko podmiotom, które wykorzystują ich materiały bez zgody lub manipulują markerami uwierzytelniania. Ustawa upoważnia również prokuratorów generalnych stanów i Federalną Komisję Handlu do egzekwowania jej przepisów, szczególnie zakazując usuwania, wyłączania lub manipulowania informacjami o pochodzeniu treści, z wyjątkiem niektórych celów badawczych związanych z bezpieczeństwem.

Szerokie Poparcie i Kontekst Legislacyjny

Ta inicjatywa jest częścią szerszych wysiłków legislacyjnych mających na celu regulację AI, kierowanych przez lidera większości w Senacie Chucka Schumera (D-NY). Szczegóły nowych ustaw będą jednak rozstrzygane w poszczególnych komitetach. Ustawa COPIED jest wspierana przez wpływowych liderów, w tym przewodniczącą Komitetu Handlu Senatu Marię Cantwell (D-WA), członka Grupy Roboczej AI Senatu Martina Heinricha (D-NM) oraz członka Komitetu Handlu Marshę Blackburn (R-TN).

Poparcie Przemysłu

Wprowadzenie ustawy COPIED spotkało się z pochwałami ze strony różnych organizacji wydawniczych i artystycznych, w tym SAG-AFTRA, Recording Industry Association of America, News/Media Alliance oraz Artist Rights Alliance.

„Zdolność AI do tworzenia niesamowicie dokładnych cyfrowych przedstawień artystów stanowi realne i obecne zagrożenie dla ekonomicznego i reputacyjnego dobrobytu oraz samostanowienia naszych członków” – stwierdził Duncan Crabtree-Ireland, krajowy dyrektor wykonawczy i główny negocjator SAG-AFTRA. „Potrzebujemy w pełni przejrzystego i odpowiedzialnego łańcucha dostaw dla generatywnej sztucznej inteligencji i tworzonych przez nią treści, aby chronić podstawowe prawo każdego człowieka do kontrolowania użycia jego twarzy, głosu i osobowości.”

Wymogi dla Deweloperów i Operatorów AI

Ustawa COPIED wymaga od deweloperów i operatorów systemów AI, które generują treści, aby w ciągu dwóch lat od wejścia w życie ustawy zapewnili użytkownikom możliwość dodawania informacji o pochodzeniu treści. Ten wymóg rozciąga się również na systemy AI wykorzystywane do generowania treści chronionych prawem autorskim.

Zakazy mające na celu ochronę twórców

Proponowana ustawa COPIED Act wprowadza konkretne zakazy mające na celu ochronę praw twórców. Jednym z głównych zakazów jest „świadome usuwanie, zmienianie, manipulowanie lub wyłączanie informacji o pochodzeniu treści”. Oznacza to, że wszelkie próby manipulacji danymi uwierzytelniającymi, które pozwalają na identyfikację oryginalnego twórcy treści, będą nielegalne. Jest to kluczowy element ustawy, który ma na celu zapewnienie, że treści twórców są zawsze rozpoznawalne jako ich własność.

Dodatkowo, ustawa zabrania wykorzystywania treści, które zawierają informacje o pochodzeniu, do szkolenia modeli AI lub generowania treści syntetycznych bez „wyraźnej, świadomej zgody osoby posiadającej prawa do treści”. Oznacza to, że firmy technologiczne muszą uzyskać jednoznaczną zgodę od właścicieli treści, zanim będą mogły używać ich pracy do tworzenia nowych modeli AI lub treści. Ten zakaz ma na celu zapobieżenie nieautoryzowanemu wykorzystywaniu dzieł twórców, co jest obecnie dużym problemem w przemyśle technologicznym.

COPIED-Act-US

Kanały egzekwowania przepisów

Egzekwowanie przepisów ustawy COPIED Act jest kluczowe dla jej skuteczności. Ustawa powierza Federalnej Komisji Handlu (FTC) odpowiedzialność za egzekwowanie jej zasad. FTC ma szerokie uprawnienia do monitorowania i penalizowania naruszeń przepisów dotyczących ochrony konsumentów, a teraz jej uprawnienia zostały rozszerzone na ochronę praw autorskich w kontekście AI. Naruszenie ustawy będzie traktowane jako naruszenie sekcji 5 ustawy o Federalnej Komisji Handlu, co umożliwia FTC podejmowanie działań prawnych przeciwko firmom i osobom, które naruszają te przepisy.

Ustawa upoważnia również prokuratorów generalnych stanów do wnoszenia działań przeciwko osobom naruszającym przepisy. To daje stanowym organom ścigania narzędzia do ochrony praw twórców na poziomie lokalnym. Co więcej, ustawa tworzy prywatne prawo do działania, co oznacza, że indywidualni twórcy mogą pozwać osoby lub firmy, które naruszają ich prawa wynikające z ustawy. Ta trójstronna strategia egzekwowania przepisów – na poziomie federalnym, stanowym i prywatnym – ma na celu zapewnienie, że prawa twórców są skutecznie chronione.

Kontekst Międzynarodowy i Europejski

Podobne przepisy dotyczące ochrony praw autorskich w kontekście AI są już wprowadzane w innych częściach świata. Unia Europejska pracuje nad własnym AI Act który ma na celu regulację użycia sztucznej inteligencji oraz zapewnienie ochrony praw autorskich. Akt AI w UE przewiduje między innymi obowiązkowe oznakowanie treści generowanych przez AI oraz ujawnianie danych użytych do szkolenia modeli AI. Reporterzy bez Granic (RSF) podkreślają, że ochrona praw autorskich w dobie AI jest niezbędna dla utrzymania niezależności i pluralizmu dziennikarstwa. Wskazują, że bilateralne umowy między mediami a dostawcami AI mogą zagrażać niezależności dziennikarstwa, dlatego konieczne jest wprowadzenie kompleksowego reżimu ochrony.

Rola Przemysłu Muzycznego

Przemysł muzyczny odgrywa kluczową rolę w poparciu dla ustawy COPIED Act. Mitch Glazier, CEO Recording Industry Association of America (RIAA), wyraził swoje poparcie dla ustawy, wskazując na problem nieautoryzowanego wykorzystywania materiałów chronionych prawem autorskim przez firmy technologiczne. „Wiodące firmy technologiczne odmawiają udostępnienia podstawowych danych dotyczących tworzenia i szkolenia ich modeli, jednocześnie korzystając z nieautoryzowanych materiałów chronionych prawem autorskim do generowania syntetycznych nagrań, które niesprawiedliwie konkurują z oryginalnymi dziełami” – stwierdził Glazier.

Przemysł muzyczny stoi na stanowisku, że twórcy zasługują na ochronę przed nieautoryzowanymi imitacjami, które mogą negatywnie wpłynąć na ich dochody i reputację. Ustawa COPIED Act ma na celu wprowadzenie takich środków ochronnych, które zapewnią, że muzycy, artyści i inni twórcy będą mieli kontrolę nad użyciem swoich dzieł, a także możliwość uzyskania odpowiedniego wynagrodzenia za ich wykorzystanie. Poparcie przemysłu muzycznego dla ustawy podkreśla jej znaczenie i potrzebę wprowadzenia skutecznych przepisów chroniących prawa twórców w dobie sztucznej inteligencji.

Podsumowanie

Od momentu wprowadzenia, ustawa otrzymała szerokie poparcie kluczowych interesariuszy z przemysłu muzycznego, rozrywkowego i dziennikarskiego, w tym SAG-AFTRA, Recording Academy i National Newspaper Association. Jednak mimo tego poparcia i dwupartyjnego charakteru ustawy, jej przegłosowanie w Kongresie nie jest pewne. Jak już omawialiśmy, działania Kongresu w sprawie AI są skomplikowane przez różnice zdań dotyczące wdrożenia oraz obawy, że regulacje dotyczące AI muszą znaleźć delikatną równowagę między promowaniem innowacji, ochroną wolności słowa a łagodzeniem ryzyka związanego z AI.

Podaj dalej