• Thu. Nov 21st, 2024

Firmy zajmujące się AI stają przed rosnącymi wyzwaniami dotyczącymi praw autorskich w obliczu granic pozyskiwania danych

Mariusz Krol

ByMariusz Krol

Sep 5, 2024
Firmy zajmujące się AI stają przed rosnącymi wyzwaniami dotyczącymi praw autorskich w obliczu granic pozyskiwania danych

Kluczowe informacje:

  • Firmy AI osiągnęły “granicę danych”, co zmusza je do eksploracji nowych, kosztownych metod pozyskiwania danych do szkolenia modeli.
  • Anthropic i OpenAI stają w obliczu pozwów o rzekome nieautoryzowane wykorzystanie treści objętych prawami autorskimi w szkoleniu swoich modeli AI.
  • Wyzwania prawne mogą zmienić sposób, w jaki firmy AI uzyskują dostęp i wykorzystują materiały objęte prawami autorskimi, co może wpłynąć na przyszłe innowacje.

Największe firmy zajmujące się sztuczną inteligencją, w tym Anthropic i OpenAI, napotykają coraz więcej wyzwań prawnych, gdy próbują przekraczać granice wykorzystania danych do szkolenia swoich modeli. Dzieje się to w momencie, gdy branża osiąga “granicę danych”, gdzie łatwo dostępne, nielicencjonowane dane stają się coraz rzadsze, co prowadzi do bardziej agresywnych taktyk zbierania danych i wynikających z tego sporów prawnych.

Pozew przeciwko Anthropic za rzekome naruszenie praw autorskich W tym miesiącu firma Anthropic, startup AI z siedzibą w San Francisco, została pozwana przez grupę autorów, którzy oskarżają ją o bezprawne wykorzystanie ich utworów chronionych prawem autorskim. Pozew twierdzi, że Anthropic „nigdy nie ubiegała się — nie mówiąc już o zapłacie — o licencję na kopiowanie i eksploatację chronionych treści zawartych w utworach objętych prawami autorskimi, które zostały wykorzystane do szkolenia jej modeli”. Ten przypadek dołącza do rosnącej liczby procesów związanych z prawami autorskimi w sektorze AI, odzwierciedlając szersze napięcie między twórcami treści a deweloperami AI.

Pozew przeciwko Anthropic następuje po głośnej sprawie wniesionej przez The New York Times przeciwko OpenAI i Microsoftowi pod koniec 2023 roku. Times oskarża te firmy o czerpanie zysków z „masowego naruszenia praw autorskich” poprzez eksploatację treści gazety bez odpowiedniego zezwolenia. Jeśli Times odniesie sukces w swoim pozwie, może to otworzyć drogę do podobnych działań prawnych przeciwko innym firmom z branży AI.

Granica danych i jej wyzwania Szybkie postępy w dziedzinie AI w ciągu ostatnich 18 miesięcy doprowadziły do nowego wyzwania, zwanego „granicą danych”. W miarę jak firmy AI dążą do doskonalenia swoich modeli, kończą im się łatwo dostępne, duże zestawy danych. Ta rzadkość zmusza firmy do głębszego przeszukiwania internetu, zakupu danych prywatnych lub tworzenia syntetycznych zestawów danych. Jednak te metody niosą ze sobą własne wyzwania, w tym wyższe koszty i problemy etyczne.

Alex Ratner, współzałożyciel Snorkel AI, firmy specjalizującej się w tworzeniu i etykietowaniu zestawów danych, stwierdził: „Nie ma już darmowego lunchu. Nie można już zeskrobać zestawu danych na skalę internetu. Trzeba go kupić lub wyprodukować. To jest granica, na której się znajdujemy”. Ten cytat podkreśla rosnące trudności, z jakimi borykają się firmy AI, gdy wkraczają w tę nową fazę pozyskiwania danych.

Anthropic, która reklamuje się jako firma AI działająca w sposób „odpowiedzialny”, została również oskarżona o „rażące zeskrobywanie” danych z internetu do szkolenia swoich systemów. Podobne oskarżenia zostały skierowane wobec Perplexity, wyszukiwarki AI, która konkuruje z Google. Te przypadki podkreślają rosnącą kontrolę, jakiej poddawane są firmy AI podczas zbierania danych do szkolenia modeli.

Konflikty między startupami AI a wydawcami W miarę jak startupy AI ścigają się w celu opracowania bardziej zaawansowanych modeli, napotykają opór ze strony wydawców i twórców treści, którzy twierdzą, że ich prace są wykorzystywane w sposób niesprawiedliwy. The New York Times, w swoim pozwie przeciwko OpenAI, argumentuje, że firma AI wykradła jej treści, wykorzystując je w sposób, który bezpośrednio konkuruje z gazetą i odciąga od niej odbiorców.

Wynik pozwu Timesa może ustanowić nowy precedens prawny, określając, w jaki sposób firmy AI mogą wykorzystywać materiały objęte prawami autorskimi w procesie szkolenia modeli. Obecnie firmy AI, takie jak OpenAI i Anthropic, zawierają umowy z wydawcami, aby legalnie uzyskać dostęp do ich treści. OpenAI na przykład nawiązała współpracę z Condé Nast, The Atlantic, Time i Financial Times, aby upewnić się, że jej modele generują dokładne i aktualne odpowiedzi.

Anthropic jednak jeszcze nie ogłosiła podobnych partnerstw, co może sprawić, że będzie bardziej narażona na dalsze wyzwania prawne. Firma niedawno zatrudniła jednak Toma Turveya, byłego dyrektora Google, który ma doświadczenie w zarządzaniu partnerstwami z wydawcami, co może sugerować, że zamierza zająć się tymi problemami w najbliższej przyszłości.

Krajobraz prawny dla firm AI Środowisko prawne dotyczące firm AI i praw autorskich ewoluuje w szybkim tempie. Google ustanowiło wczesny precedens w 2015 roku, kiedy wygrało sprawę przeciwko grupie autorów, którzy twierdzili, że skanowanie i indeksowanie ich utworów przez firmę naruszało zasady dozwolonego użytku. Sąd orzekł na korzyść Google, uznając, że wykorzystanie treści było „wysoce transformacyjne”.

Jednak pozew Timesa przeciwko OpenAI podważa tę koncepcję, twierdząc, że nie ma nic „transformacyjnego” w tym, jak OpenAI wykorzystuje treści gazety. Wynik tej sprawy może mieć dalekosiężne konsekwencje dla sposobu, w jaki firmy AI będą wykorzystywać materiały objęte prawami autorskimi w przyszłości.

Zwycięstwo Google zajęło dekadę, w trakcie której firma ugruntowała swoją dominację na rynku wyszukiwarek. Dzisiejsze firmy AI działają w znacznie szybszym tempie, gdzie wyniki prawne mogą znacznie wpłynąć na ich zdolność do innowacji i konkurowania.

Mariusz Krol

Mariusz Krol

Mariusz Król to ceniony pisarz w dziedzinie kryptowalut, znany z przystępnych analiz i artykułów. Swoją wiedzą dzieli się zarówno w tekstach, jak i podczas konferencji branżowych, pomagając czytelnikom zrozumieć świat cyfrowych walut.

Leave a Reply

Your email address will not be published. Required fields are marked *