Europa zmusza ChatGPT do przejrzystości i poszanowania praw autorskich
Prawo Unii Europejskiej dotyczące sztucznej inteligencji (AI) zyskuje na popularności. Po jego uchwaleniu w zeszłym roku i wprowadzeniu pierwszych zakazów w lutym , przepisy te ograniczają obecnie modele sztucznej inteligencji ogólnego przeznaczenia, w tym narzędzia takie jak ChatGPT , Gemini i Grok . Od najbliższej soboty, 2 sierpnia, firmy deweloperskie będą musiały przestrzegać nowych kryteriów przejrzystości i bezpieczeństwa, aby uniknąć potencjalnych kar. Kary mogą wynieść do 7% globalnego rocznego obrotu firmy naruszającej przepisy lub do 35 milionów euro.
Od teraz każdy twórca narzędzia opartego na sztucznej inteligencji, które może generować tekst, obrazy, wideo lub głos, musi udostępniać jasne i aktualne informacje techniczne na temat swojej technologii firmom korzystającym z jego usług oraz organom europejskim, a w szczególności Europejskiemu Urzędowi ds. Sztucznej Inteligencji. Informacje te muszą wyjaśniać, w jaki sposób narzędzie zostało opracowane i przetestowane.
WIĘCEJ INFORMACJI
Bardziej zaawansowane rozwiązania będą musiały również przeprowadzać bieżące oceny bezpieczeństwa, zgłaszać poważne incydenty i robić wszystko, co możliwe, aby zapewnić, że ich produkty są wolne od luk, które mogłyby narazić dane użytkowników na ryzyko.
Podobnie, firmy tworzące te narzędzia są zobowiązane do przestrzegania europejskich przepisów dotyczących praw autorskich; w tym celu będą musiały udostępniać publiczne podsumowania danych wykorzystanych do szkolenia swoich maszyn. Muszą również wdrożyć systemy umożliwiające właścicielom praw autorskich rezygnację z ich udostępniania, uniemożliwiając wykorzystanie ich treści do rozwoju technologii.
Obowiązki te musi spełnić każda firma wprowadzająca na rynek technologię generatywnej sztucznej inteligencji, taka jak Google, Meta, OpenAI czy xAI. Będzie to miało bezpośredni wpływ na przykład na GPT-5, ulepszoną wersję ChatGPT, której premiera spodziewana jest przed końcem sierpnia.
Aby ułatwić firmom przestrzeganie przepisów, Unia Europejska opublikowała w połowie lipca kodeks dobrych praktyk, do którego firmy mogą dobrowolnie przystąpić. Firmy takie jak Microsoft, OpenAI, Google, Anthropic i xAI potwierdziły już swoje podpisy, choć w większości przypadków niechętnie.
„Wciąż obawiamy się, że ustawa o sztucznej inteligencji i kodeks mogą spowolnić rozwój i wdrażanie sztucznej inteligencji w Europie. W szczególności odstępstwa od europejskiego prawa autorskiego, środki spowalniające proces zatwierdzania lub wymogi ujawniające tajemnice handlowe mogą spowolnić rozwój i wdrażanie europejskich modeli, a tym samym zaszkodzić europejskiej konkurencyjności” – oświadczył Google w oświadczeniu wydanym w tym tygodniu.
Meta ogłosiła już, że nie zamierza podpisać kodu, choć nadal będzie musiała przestrzegać przepisów. Firma kierowana przez Marka Zuckerberga, która wydaje miliardy euro na stworzenie „superinteligencji” – maszyny, która będzie mądrzejsza od najmądrzejszego człowieka – uważa, że przepisy zahamują innowacyjność. „Spowolnią one rozwój i wdrażanie pionierskich modeli sztucznej inteligencji w Europie oraz utrudnią europejskim firmom budowanie na nich biznesu” – powiedział Joel Kaplan, dyrektor ds. globalnych w Meta.
ABC.es