Rozprawa w sprawie C-250/25 Like v Google: lody, Mona Lisa i koty
Sprawę C-250/25 Like v Google już opisywałem. To ta sprawa, w której węgierski wydawca prasowy pozwał Google’a, bo chatbot streścił artykuł o delfinach w Balatonie. Jakkolwiek komicznie by to nie brzmiało wyrok TSUE może mieć istotny wpływ na relację AI – prawo autorskie w UE. 10 marca 2026 r. odbyła się rozprawa w tej sprawie. I warto się jej przebiegowi uważnie przyjrzeć.
Spór interesuje mnie na tyle, że postanowiłem — ku własnej pamięci i dla ułatwienia wyrobienia sobie własnego zdania przez pleno titulo czytelników — napisać sprawozdanie. Starałem się wiernie (i obiektywnie!) oddać przebieg postępowania i argumenty stron. Dla wygody czytelnika opatrzyłem tekst przypisami, które dodają kontekst do powoływanego orzecznictwa i wyjaśniają niektóre pojęcia techniczne — warto do nich zerknąć. Na koniec kilka moich własnych obserwacji.
Sama rozprawa trwała cały dzień. Oprócz stron głos zabrali przedstawiciele sześciu państw członkowskich — Węgier, Danii, Niemiec, Grecji, Hiszpanii i Francji — oraz Komisja Europejska. Tak szeroki udział interwenientów, rzadki nawet w sprawach rozpatrywanych przez Wielką Izbę, potwierdza wagę pytań prejudycjalnych skierowanych przez węgierski sąd. Pytania budapesztańskiego sądu dotyczą tego, czy wyświetlanie przez chatbota tekstu częściowo identycznego z treścią stron wydawców stanowi publiczne udostępnianie w rozumieniu art. 15 dyrektywy 2019/790 (dyrektywy CDSM), czy trenowanie chatbota jest zwielokrotnianiem i czy mieści się w wyjątku dotyczącym eksploracji tekstu i danych (TDM), a wreszcie — kto dokonuje zwielokrotnienia, gdy użytkownik wydaje polecenie odpowiadające treści publikacji prasowej, a chatbot generuje na jego podstawie odpowiedź.
Na rozprawie dyskusja poszła jednak znacznie dalej. Trybunał postawił wszystkim uczestnikom dodatkowe pytanie, które zdominowało całe postępowanie: jaki jest związek między miejscem trenowania chatbota a terytorialnym zakresem stosowania dyrektyw unijnych. Ponadto — inaczej niż wynikałoby z pytań prejudycjalnych — sporo uwagi poświęcono mechanizmowi generowania wspomaganego wyszukiwaniem (RAG, grounding) i temu, czy odpowiedzi chatbota w ogóle mogą stanowić publiczne udostępnienie w rozumieniu prawa autorskiego.
Stanowisko powoda
Pełnomocnik powoda poświęcił znaczną część wystąpienia zagadnieniom w niewielkim stopniu odnoszącym się do pytań prejudycjalnych. Zastrzegł na wstępie, że przedmiotem sporu nie jest w istocie korzystanie z jednego artykułu prasowego — przykład z postanowienia odsyłającego, artykuł o delfinach w Balatonie. Ten ma być jedynie ilustracją. Powództwo dotyczyć ma bowiem stwierdzenia bezprawności ciągłego korzystania przez Google z publikacji prasowych powoda, zarówno przez chatbota Gemini, jak i przez Google Search. Ale istotę sporu pełnomocnik retorycznie zdefiniował szerzej: „rozstrzygamy o przyszłości dziennikarstwa wysokiej jakości” i o godziwym wynagrodzeniu wydawców w erze sztucznej inteligencji. Mówił o pięćdziesięcioprocentowym spadku ruchu na stronach wydawców spowodowanym przez AI Overviews, o integracji Gemini z wyszukiwarką Google Search naruszającej zdaniem powoda zakaz faworyzowania własnych usług z art. 6 ust. 5 DMA, o tym, że Google nie opublikował polityki zgodności z prawem autorskim wymaganej przez art. 53 ust. 1 lit. c) AI Act. Słowem — dużo o trudnym losie dziennikarstwa i kontekście regulacyjnym, niewiele natomiast o samym prawie autorskim.
Z argumentacji stricte prawnoautorskiej pełnomocnik powoda przedstawił dwa wątki. Pierwszy dotyczył terytorialności — geograficzne miejsce trenowania chatbota jest zdaniem powoda nieistotne, bo do naruszeń praw autorskich ma zastosowanie art. 8 rozporządzenia Rzym II, nakazujący stosowanie prawa państwa, dla którego dochodzi się ochrony (lex loci protectionis). Drugi dotyczył zgody. Pełnomocnik powołał się na wyrok w sprawie Soulier i Doke (C-301/15)[1], w którym Trybunał stwierdził, że warunkiem milczącej zgody jest uprzednie i skuteczne poinformowanie uprawnionego. Zdaniem powoda Google takiej informacji nie udzielił, a jednocześnie — jako strażnik bramy (gatekeeper) — postawił wydawców przed alternatywą: albo tolerować indeksowanie na potrzeby AI, albo zniknąć z wyników wyszukiwania. Wykładnię prawa autorskiego powinna przy tym zdaniem powoda kierować zasada skuteczności (effet utile).
Stanowisko pozwanego
Pełnomocnik Google podzielił prezentację na dwie części, odpowiadające dwóm fazom działania technologii: trenowaniu modeli bazowych Gemini oraz funkcjonowaniu chatbota.
W części poświęconej trenowaniu pełnomocnik pozwanego wyjaśnił, że modele bazowe Gemini są trenowane na różnorodnych danych pozyskiwanych m.in. za pomocą robotów indeksujących (web crawlers). Operatorzy stron internetowych mogą za pośrednictwem pliku robots.txt regulować indeksowanie, a za pomocą konfiguracji Google Extended — wyraźnie zastrzec prawa w zakresie trenowania AI i groundingu[2], zgodnie z art. 4 ust. 3 dyrektywy CDSM. Pełnomocnik podkreślił, że stosowanie robots.txt w tym celu zostało uznane przez Komisję Europejską i Europejski Urząd ds. Sztucznej Inteligencji w Kodeksie Praktyk do AI Act.
Pełnomocnik pozwanego szczegółowo opisał sam proces trenowania — od podziału danych na tokeny, przez przypisanie im wektorów liczbowych opisujących położenie w przestrzeni wielowymiarowej, po wyznaczanie i modyfikację wag opisujących zależności językowe w toku bilionów operacji. Istotą tego wywodu było twierdzenie, że ani tokeny, ani poszczególne relacje między nimi nie są przechowywane w wytrenowanym modelu, który nie jest zbiorem danych treningowych, lecz złożoną funkcją matematyczną.
Stąd wniosek, że trenowanie nie stanowi zwielokrotnienia w rozumieniu prawa autorskiego. Pełnomocnik pozwanego powoływał się na orzecznictwo Trybunału w sprawach Levola (C-310/17)[3], Cofemel (C-683/17), Brompton (C-833/18) oraz FAPL (C-403/08 i C-429/08), z którego wywodził, że zwielokrotnienie wymaga utrwalenia utworu w materialnej formie, a w pamięci komputera muszą istnieć co najmniej identyfikowalne fragmenty chronionej treści — „utożsamianie parametrów modelu ze zwielokrotnionymi egzemplarzami danych treningowych stanowi błąd kategoryzacji”[4]. Na poparcie tej tezy przywołał niedawny wyrok High Court of Justice w sprawie Getty Images przeciwko Stability AI[5], w którym sąd po kompleksowym postępowaniu dowodowym uznał, że wagi sieci neuronowej reprezentują wyekstrahowane wzorce statystyczne, nie reprodukcje obrazów.
W części dotyczącej chatbota pełnomocnik pozwanego wyjaśnił mechanizm groundingu (RAG) — gdy chatbot oceni, że wyszukanie informacji faktycznych poprawi odpowiedź, generuje zapytania do Google Search i buduje odpowiedź z uwzględnieniem dodatkowego kontekstu, przy czym artykuł usunięty z internetu nie jest przez Gemini dostępny, bo ani model, ani chatbot nie są bazami danych. Odpowiedzi chatbota posługują się zdaniem pozwanego co najwyżej słowami i faktami, które ochronie autorskoprawnej nie podlegają, nie istnieje też nowa publiczność, skoro powód sam za pomocą robots.txt zezwolił na włączenie swojej strony do usług Google.
Na zakończenie pełnomocnik pozwanego wskazał, że trenowanie modeli bazowych Google odbywało się na specjalistycznych chipach w centrach danych zlokalizowanych w Stanach Zjednoczonych, a zgodnie z zasadą terytorialności prawa autorskie mogą być naruszane jedynie przez działania dokonywane na terytorium, na którym przysługuje ochrona.
Interwencje państw członkowskich
Terytorialność — zbieżność i niuanse
Pytanie Trybunału o związek między miejscem trenowania a zakresem stosowania dyrektyw zdominowało wystąpienia wszystkich sześciu państw członkowskich. W odpowiedziach wyłoniła się daleko idąca zbieżność stanowisk, choć z istotnymi różnicami w uzasadnieniu. Co charakterystyczne, żaden z przedstawicieli państw członkowskich nie czynił wyraźnej różnicy między danymi zakodowanymi w parametrach modelu a danymi przetwarzanymi przez model w czasie generowania odpowiedzi, pochodzącymi z zewnętrznych źródeł — a więc między trenowaniem a mechanizmem RAG.
Przedstawiciel rządu węgierskiego, otwierając serię interwencji, wskazał na wyrok w sprawie Kwantum (C-227/23)[6], w którym Trybunał stwierdził, że zakres stosowania dyrektywy InfoSoc jest określony przez odniesienie do rynku wewnętrznego, a nie kraju pochodzenia utworu. Na tej podstawie argumentował, że choć trenowanie modelu może odbywać się poza Unią, o ile usługa jest dostępna w Unii lub skierowana do użytkowników unijnych — podlega ona prawu unijnemu. Publiczne udostępnienie następuje w miejscu, w którym utwór jest udostępniany odbiorcom, a gdy output usługi chatbota jest komercjalizowany na rynku unijnym, czynność ta podlega prawu unijnemu niezależnie od lokalizacji serwerów.
Stanowisko to podzielili przedstawiciele Danii, Grecji, Hiszpanii i Francji[7]. Wszystkie te państwa podkreślały, że trening i output stanowią jednolity proces gospodarczy — faza trenowania nie ma samoistnej wartości, lecz nabiera sensu wyłącznie w związku z późniejszą komercjalizacją modelu. Przedstawiciel Danii sformułował ten argument najdobitniej: gdyby obie fazy nie były uznawane za jeden spójny proces, „pozostawałaby luka prawna, w której szczególnie duże, globalne przedsiębiorstwa mogłyby konsekwentnie szkolić swoje modele AI poza Unią w celu uniknięcia unijnego prawa autorskiego”. Przedstawiciel Grecji mówił o zachęcie do „arbitrażu regulacyjnego”. Przedstawiciel Hiszpanii — o tym, że „prawodawca unijny nie zamierzył, aby jakakolwiek usługa świadczona w Unii Europejskiej mogła być rozwijana z naruszeniem praw własności intelektualnej”.
Wszystkie państwa odwoływały się do art. 53 ust. 1 lit. c) AI Act, który zobowiązuje dostawców modeli AI do wdrożenia polityki zgodności z unijnym prawem autorskim w przypadku wprowadzenia modelu do obrotu na rynku wewnętrznym — niezależnie od miejsca trenowania[8].
Bardziej wyważone stanowisko zajął przedstawiciel Niemiec. Nie kwestionując co do zasady stosowania prawa unijnego, wskazał, że obie dyrektywy nie zawierają przepisów regulujących wprost ich terytorialny zakres stosowania, a kwestię tę rozstrzyga zasada terytorialności, wymagająca powiązania konkretnej czynności naruszającej prawo z danym terytorium. W praktyce oznacza to, że prawo autorskie państwa członkowskiego ma zastosowanie, gdy dostawca AI zapisuje chronioną treść w celu trenowania na serwerze znajdującym się na terytorium tego państwa. Przedstawiciel Niemiec jako jedyny wyodrębnił przy tym dwie fazy trenowania — tworzenie materiału treningowego i właściwy trening modelu — oraz postawił dodatkowe pytanie, czy czynność zwielokrotnienia następuje już w toku web scrapingu, co mogłoby oznaczać, że punktem zaczepienia jest serwer scrapowanej strony internetowej.
Przedstawiciel Francji zaproponował z kolei podejście oparte na koncepcji czynu złożonego (délit complexe): czynności zwielokrotnienia dokonane w fazie trenowania należy postrzegać jako zdarzenie sprawcze szkody, która materializuje się dopiero w momencie wyświetlenia wyniku przez narzędzie AI. Odwołał się przy tym do raportu złożonego w grudniu 2025 r. Najwyższej Radzie Własności Literackiej i Artystycznej Francji[9] oraz do orzecznictwa Trybunału stosującego metodę ukierunkowania (focalisation)[10] — w szczególności wyroku Football Dataco (C-173/11).
Zwielokrotnienie i publiczne udostępnienie
W kwestii zwielokrotnienia stanowiska były zbieżne, choć różniły się w szczegółach. Przedstawiciel rządu węgierskiego powołał się na wyrok w sprawie Infopaq (C-5/08), w którym Trybunał orzekł, że fragmenty tekstu gromadzone w wyciągach mogą prowadzić do odtworzenia bardziej obszernych części i są zdolne do odzwierciedlenia oryginalności dzieła. Stwierdził, że argument Google, iż tokeny same w sobie nie umożliwiają percepcji utworu, jest nieistotny — w toku trenowania przechowywane są dane zdatne do odtworzenia chronionych utworów.
Przedstawiciel Francji argumentował, że pojęcie zwielokrotnienia należy rozumieć szeroko, a tokenizacja — podobnie jak w wyroku LG Hamburg w sprawie Kneschke v. LAION — nie stanowi przeszkody dla kwalifikacji wcześniejszych operacji zbierania danych jako zwielokrotnienia. Przedstawiciel Hiszpanii podkreślił, że irrelewantne jest, czy zwielokrotnienie jest zamierzone — istotne jest to, że znając możliwość odtworzenia chronionej treści, nie podjęto niezbędnych środków, aby temu zapobiec. Wskazał też, że wyjątek dotyczący pojedynczych słów lub bardzo krótkich wyciągów z art. 15 dyrektywy CDSM musi być interpretowany w sposób nienegujący skuteczności praw wydawców.
Przedstawiciel rządu węgierskiego sformułował ponadto tezę, że dla stwierdzenia publicznego udostępnienia nie jest konieczny zamiar ani celowość działania usługodawcy AI — wystarczy, że na terytorium Unii użytkownicy internetu mają dostęp do danego dzieła. Powołał się na opinię Rzecznika Generalnego Macieja Szpunara w sprawie Grand Production (C-423/21)[11], w której stwierdzono, że operator platformy dokonuje publicznego udostępnienia, gdy treści nadawane z terytorium poza Unią są nieograniczenie dostępne w Unii. Argument Google o losowym, probabilistycznym charakterze generowania treści — jak wskazał przedstawiciel Węgier — „sam przez się nie wyklucza faktu naruszenia”.
Stanowisko Komisji Europejskiej
Wystąpienie Komisji Europejskiej wyróżniało się na tle pozostałych interwencji — było ostrożne i wyważone. Komisja otworzyła je od zastrzeżenia, że sprawa jest jej zdaniem częściowo lub w całości niedopuszczalna, a propozycję odpowiedzi przedstawiła jedynie na pierwszą część pierwszego pytania. Powołała się na wyrok w sprawach połączonych YouTube i Cyando (C-682/18 i C-683/18)[12], z którego wywiodła, że nie może istnieć domniemanie naruszenia oparte na samym trybie działania usługi — bezprawność musi być wykazana konkretnie. Przestrzegła też przed niezamierzonymi skutkami rozstrzygnięcia dla stosowania art. 4 dyrektywy CDSM wobec zróżnicowanych kategorii uprawnionych — twórców, producentów fonogramów, wydawców — których interesy nie są tożsame.
W kwestii terytorialności Komisja zaproponowała podejście oparte na orzecznictwie w sprawach L’Oréal przeciwko eBay (C-324/09)[13], Football Dataco (C-173/11) i Mitsubishi (C-129/17)[14] — dyrektywy powinny mieć zastosowanie, jeżeli w wyniku działalności prowadzonej przez podmiot spoza Unii uprawniony z tytułu prawa unijnego jest pozbawiany korzyści wynikających z prawa zagwarantowanego prawem autorskim. Przedstawiciel Komisji zaproponowała sześcioetapowy test obejmujący m.in. identyfikację strony przeznaczonej dla użytkownika, miejsce dostępności chronionej treści, analizę outputu pod kątem treści chronionych oraz inne dowody kierowania działalności do osób na danym terytorium. Komisja wyraźnie podkreśliła, że miejsce siedziby podmiotu trzeciego i lokalizacja serwerów nie mogą determinować stosowania prawa unijnego.
W odniesieniu do art. 15 dyrektywy CDSM Komisja odniosła się do argumentu Google, że przejście w tekście przepisu z „korzystania cyfrowego” na „korzystanie online” stanowiło zamierzone zawężenie zakresu prawa wydawców. Komisja wskazała, że sama stosowała oba pojęcia zamiennie w uzasadnieniu projektu dyrektywy, a żaden element prac przygotowawczych nie wskazuje na zamiar nadania im odmiennego znaczenia.
Interesujące było stanowisko Komisji w sprawie wyjątku TDM. Przedstawiciel Komisji wyjaśniła, że art. 4 dyrektywy CDSM ma zastosowanie do zwielokrotnień związanych z eksploracją tekstu i danych „jako celu samego w sobie — a nie jako środka do osiągnięcia innego celu”. Podkreśliła również, że art. 4 nie ustanawia wyjątku od prawa do publicznego udostępniania. Komisja przestrzegła przed nadmiernym komplikowaniem prawa autorskiego argumentami technologicznymi — „uprawnieni, a w szczególności mali uprawnieni, nie dysponują zasobami pozwalającymi im na zwalczanie takich argumentów”. Komisja w całości odrzuciła interpretację prawa do zwielokrotniania prezentowaną przez Google.
Sesja pytań
Popołudniowa sesja pytań ujawniła napięcia, które formalne wystąpienia poranne jedynie sygnalizowały. Pytania zadawali sędzia sprawozdawczyni, Rzecznik Generalny Maciej Szpunar oraz sędziowie Jan Passer, Niilo Jääskinen i Ramona Frendo.
Czy tokeny są przechowywane — i czy to ma znaczenie?
Sędzia sprawozdawczyni otworzyła sesję pytaniem do Google o art. 4 ust. 2 dyrektywy CDSM, który zezwala na zachowanie ekstrakcji tak długo, jak jest to konieczne do celów eksploracji tekstu i danych. Czy stałe zachowanie tokenów[15] wraz ze statystycznymi zależnościami między nimi mieściłoby się w zakresie tego wyjątku? Pełnomocnik pozwanego odpowiedział, że tokeny nie są zachowywane — są odrzucane po zakończeniu trenowania. Sędzia sprawozdawczyni nie poprzestała na tym i posłużyła się metaforą puzzli — z całego obrazu pozostały jedynie małe fragmenty porozrzucane wszędzie, a pytanie brzmi, czy ich zachowanie wciąż mieści się w zakresie wyjątku. Pełnomocnik pozwanego odparł, że ocena zależałaby od tego, czy z takich tokenów można odtworzyć utwór w sposób dostrzegalny dla człowieka, ale że sytuacja taka faktycznie nie zachodzi.
Następnie padło pytanie, które okazało się kluczowym momentem rozprawy — i które nawiązuje do problemu memoryzacji, o którym pisałem przy okazji wyroku GEMA vs OpenAI. Sędzia sprawozdawczyni zapytała wprost — czy można wykluczyć, że w odpowiedzi na prompt chatbot wygeneruje tekst identyczny lub podobny do tekstu źródłowego? Pełnomocnik pozwanego po chwili doprecyzowania przyznał: „Nie można tego wykluczyć.”
Sędzia sprawozdawczyni zapytała też o test trójstopniowy[16] — jak powszechna tokenizacja danych treningowych, stanowiąca model biznesowy Gemini, daje się pogodzić z przesłanką stosowania wyjątku jedynie w „pewnych szczególnych przypadkach”? Pełnomocnik Google odpowiedział, że normalny sposób eksploatacji publikacji prasowych polega na ich drukowaniu lub udostępnianiu online, a tokenizacja tej działalności w żaden sposób nie narusza — byłoby to zatem „wyraźnie bardzo szczególnym przypadkiem”.
Terytorialność — konfrontacja Rzecznika Generalnego z Google
Rzecznik Generalny Maciej Szpunar podjął temat terytorialności w bezpośredniej wymianie z pełnomocnikiem pozwanego. Wskazał, że na gruncie prawa UE opieramy się zasadniczo na prawie państwa, w którym nastąpiła szkoda, nie zdarzenie ją powodujące. Jeśli wyodrębniamy akt zwielokrotnienia dokonany gdzie indziej — pytał Rzecznik — to czy państwem, w którym nastąpiła szkoda, nie byłyby Węgry? Pełnomocnik Google odpowiedział, że w przypadku zwielokrotnienia szkoda powstaje tam, gdzie ma miejsce akt techniczny, a więc prawo właściwe wyznacza lokalizacja serwerów.
Rzecznik Generalny powołał się wówczas na wyrok w sprawach połączonych Nintendo i Akacja (C-24/16 i C-25/16)[17], w którym Trybunał stwierdził, że gdy naruszenie składa się z kilku czynności, należy je rozpatrywać łącznie. Zaproponował na tej podstawie całościowe podejście obejmujące trenowanie, grounding, fazę wejściową i wyjściową. Pełnomocnik Google stanowczo się temu sprzeciwił, powołując argument o pewności prawnej — w chwili dokonywania czynności musi być wiadome, jakie prawo ma zastosowanie. Gdyby późniejsze użycie modelu w Portugalii oznaczało retroaktywne zastosowanie prawa portugalskiego do wcześniejszego trenowania, prowadziłoby to do wstecznego stosowania prawa.
Rzecznik Generalny zapytał też o Google Extended — czy wydawca może zachować widoczność w Google Search, wykluczając jednocześnie korzystanie z treści do trenowania AI? Pełnomocnik Google potwierdził: „dokładnie w tym celu istnieje Google Extended”.
Skąd model wie o lodach rzuconych w Monę Lisę?
Najbardziej obrazową częścią rozprawy była wymiana między sędziami Jääskinenem, Passerem i Frendo a pełnomocnikiem pozwanego. Sędzia Jääskinen posłużył się przykładem swojej wnuczki, która w wieku dwóch i pół lat opanowała słowo „kot” — analogicznie do modelu, który uczy się wzorców językowych. „Ale gdybym poprosił ją o scenariusz musicalu Cats, nie byłaby w stanie tego zrobić” — mówił sędzia. Skąd zatem model czerpie zdolność do generowania treści, które mają sens, skoro — jak twierdzi Google — nic nie pozostaje z fazy uczenia się? „Jest to dla mnie nieintuicyjne” — przyznał sędzia Jääskinen.
Sędzia Frendo przeszła od kota do Mony Lisy. Statystyczne prawdopodobieństwo wyjaśnia, dlaczego po „Mona” następuje „Lisa”, a potem „Luwr” i „Leonardo da Vinci”. „Ale jak model będzie wiedział, że w pewnym roku ktoś rzucił lody w Monę Lisę, nie przechowawszy tej informacji?” — pytała. Pełnomocnik pozwanego odpowiedział, że historia z lodami mogła pojawić się w dwustu tysiącach artykułów, a model odwzorowuje to jako prawdopodobieństwo użycia języka. „Czyli jednak przechowywanie 200 000 elementów?” — dopytywała sędzia Frendo. „Nie, to prawdopodobieństwo” — odpowiedział pełnomocnik pozwanego.
Komisja o nowej publiczności i nowym środku technicznym
Na pytanie sędzi sprawozdawczyni o nową publiczność i nowy środek techniczny Komisja zajęła jednoznaczne stanowisko — udostępnienie treści za pośrednictwem chatbota stanowi udostępnienie przy użyciu odmiennego środka technicznego, ponieważ chatbot nie jest stroną internetową. Istnieje również nowa publiczność. W ocenie Komisji odpowiedź na oba pytania była twierdząca, a zatem mamy do czynienia z nowym publicznym udostępnieniem.
Repliki końcowe
Przewodniczący Trybunału poprosił strony o krótkie odniesienie się do stanowisk pozostałych uczestników, zastrzegając, by nie powtarzać tego, co już powiedziano.
Pełnomocnik powoda stanowczo odrzucił twierdzenie Komisji o niedopuszczalności pytań prejudycjalnych, wskazując, że jest to powództwo o ustalenie bezprawności dotyczące określonego okresu czasu i określonych domen — a więc o strukturze identycznej z umowami licencyjnymi Google Extended News Preview, które sam pozwany zawiera z innymi wydawcami. Podkreślił też zasadniczą różnicę między niniejszą sprawą a przywołanymi przez Komisję sprawami YouTube i Cyando — tam chodziło o treści zamieszczane przez użytkowników, tutaj o treści wytrenowane i udostępniane przez Google.
Pełnomocnik pozwanego powtórzył, że powód przytoczył zaledwie jeden przykład, z którego wynika, że chatbot tworzy nowy tekst posługujący się faktami z domeny publicznej, a prawdopodobieństwo odtworzenia tekstu identycznego z artykułem wydawcy „wynosi praktycznie zero”. Ponownie wskazał na Google Extended jako narzędzie pozwalające wydawcom zastrzec swoje prawa bez wpływu na widoczność w wyszukiwarce.
Przedstawiciel rządu węgierskiego rekomendował Trybunałowi, aby w orzeczeniu nie koncentrował się na szczegółach technologicznych, lecz na treści normatywnej art. 15 dyrektywy CDSM — celem przepisu jest ochrona praw wydawców prasy i umożliwienie im zwrotu nakładów. Przedstawiciel Niemiec podkreślił, że zasada terytorialności ma fundamentalne znaczenie i dotyczy wszelkich praw eksploatacyjnych, nie tylko w kontekście AI — zmiany w jej interpretacji mogłyby mieć konsekwencje daleko wykraczające poza niniejszą sprawę. Jednocześnie wskazał, że punkty zaczepienia dla stosowania prawa unijnego mogą istnieć nawet wtedy, gdy główne przechowywanie danych odbywa się poza Unią — na przykład gdy model AI jest oferowany z serwera zlokalizowanego na terytorium państwa członkowskiego.
Przedstawiciel Francji powrócił do pojęcia publicznego udostępnienia — treść jest wyciągana ze swego pierwotnego środowiska i publikowana w interfejsie dostawcy usług AI, a użytkownik jest wręcz zniechęcany do odwiedzania strony źródłowej. W tych warunkach zarówno środek przekazu, jak i publiczność są nowe.
Komisja w replice przedstawiła sześć punktów uzupełniających. Podkreśliła, że prawo do zwielokrotnienia z art. 2 dyrektywy InfoSoc nie wymaga utrwalenia (fixation), że opis technologiczny tokenizacji nie powinien stanowić podstawy rozstrzygnięcia — ponieważ technologia ta prawdopodobnie ulegnie zmianie — oraz że wszystkie przesłanki zastosowania wyjątku TDM muszą być spełnione łącznie, w tym test trójstopniowy.
Zamknięcie rozprawy
Przed zamknięciem posiedzenia Rzecznik Generalny Maciej Szpunar poinformował, że opinia zostanie odczytana 3 września 2026 r. Wyjaśnił, że w toku postępowania nastąpiła zmiana Rzecznika Generalnego, a sprawa została mu przydzielona dopiero niedawno. Wyrok Trybunału zapadnie w terminie późniejszym.
Kilka spostrzeżeń na koniec
Na poważniejszą ocenę sprawy przyjdzie jeszcze czas. Trudno jednak kilku rzeczy nie zauważyć.
Po pierwsze, sędziowie i Rzecznik Generalny mają wyraźne trudności ze zrozumieniem technologii, o której mają orzekać. Sędzia sprawozdawczyni pyta o „zachowanie tokenów” w modelu i posługuje się metaforą puzzli. Sędzia Frendo nie rozumie, skąd model „wie” o lodach rzuconych w Monę Lisę, skoro niczego nie przechowuje. Sędzia Jääskinen porównuje uczenie modelu do nauki słowa „kot” przez dwuipółletnią wnuczkę — i słusznie zauważa, że analogia nie wyjaśnia, dlaczego model potrafi napisać scenariusz musicalu Cats. Pełnomocnik Google próbował wprawdzie wytłumaczyć działanie technologii, ale było to hmmm… w najlepszym razie blade. Wywody o tokenizacji, wektorach i przestrzeniach wielowymiarowych nie zadziałały — sala nie zrozumiała, co z tego wynika dla oceny prawnej. Brak zrozumienia technolgii jest niebezpieczny. Sprawa C-250/25 może przesądzić o warunkach rozwoju AI w Unii Europejskiej. Ludzie, którzy o niej rozstrzygają, powinni z grubsza rozumieć, na czym to całe AI polega.
Po drugie, po zakończeniu rozprawy nadal nie wiemy, czego sprawa w istocie dotyczy. Czy chodzi o memoryzację, czyli o to, że model w czasie treningu dosłownie „zapamiętał” artykuł o delfinach w Balatonie i jest w stanie go odtworzyć, czy raczej o streszczenie lub sparafrazowanie tekstu przez gotowy model, który generuje nową wypowiedź, posługując się danymi pochodzącymi z zewnętrznych źródeł? To technicznie zupełnie różne przypadki, wymagające różnych ocen prawnych. Co ciekawe, Google również tego jasno nie deklaruje. Trudno powiedzieć, z czego to wynika — czy ze strategii procesowej obliczonej na rozmycie problemu, czy z małego pola manewru ze względu na wiele toczących się i potencjalnych sporów w różnych jurysdykcjach, czy wreszcie z braku możliwości ustalenia, co w przypadku artykułu o delfinach rzeczywiście się zdarzyło.
Po trzecie, AI ma złą prasę w wielu państwach członkowskich — i rozprawę trudno czytać w oderwaniu od tego kontekstu. Wśród interwencji państwowych pojawiają się mniej lub bardziej szalone pomysły, zarówno w zakresie terytorialnego zakresu stosowania prawa autorskiego, jak i wykładni jego przepisów (nie rozumiem uwag przedstawicieli komisji o utrwaleniu, ani uwag o teście trójstopniowym). Wydają się one mieć wspólny mianownik – dowalić bigtechom, czemu oczywiście sprzyjają napięcia między Stanami Zjednoczonymi a Europą. Ale w tym wszystkim bije w oczy całkowity brak ambicji. Wszystkie te propozycje zakładają, że sztuczną inteligencję będziemy do Unii wyłącznie importować i jedyne, co możemy zrobić, to drogo się sprzedać. Terytorialność ma objąć trenowanie prowadzone za granicą. Transparentność ma zmusić zagranicznych dostawców do ujawniania danych treningowych. Domniemanie naruszenia ma przerzucić ciężar dowodu na zewnętrzne podmioty. Jakoś nikomu nie przychodzi do głowy, że przy okazji wycinamy własne możliwości rozwoju AI.
- Wyrok TSUE z 16 listopada 2016 r. w sprawie C-301/15 Soulier i Doke. Sprawa dotyczyła francuskiego systemu cyfrowej eksploatacji książek niedostępnych w obrocie handlowym. Prawo francuskie pozwalało organizacji zbiorowego zarządzania na udzielanie licencji na digitalizację i publiczne udostępnianie książek, których autorzy nie zgłosili sprzeciwu w terminie sześciu miesięcy od umieszczenia tytułu w specjalnej bazie danych. Trybunał orzekł, że taki mechanizm jest niezgodny z dyrektywą 2001/29/WE — zgoda autora na zwielokrotnienie i publiczne udostępnienie może być wprawdzie dorozumiana, ale tylko pod warunkiem uprzedniego i skutecznego poinformowania go o zamierzonym korzystaniu z jego utworu oraz o dostępnych środkach sprzeciwu. ↩
- Na rozprawie pełnomocnik Google posługiwał się terminem grounding, który jest produktowym określeniem stosowanym w ekosystemie Google (Vertex AI, Gemini API) i Microsoftu (Azure OpenAI, Copilot). W literaturze naukowej i dokumentacji open-source powszechnie stosowany jest natomiast termin RAG (Retrieval-Augmented Generation), wprowadzony przez P. Lewisa i in. w artykule opublikowanym przez Meta AI w 2020 r. Technicznie oba pojęcia oznaczają to samo lub bardzo podobne rozwiązanie — podłączenie modelu do zewnętrznych źródeł wiedzy, tak aby odpowiedzi były zakorzenione w weryfikowalnych danych. Nie są to jednak synonimy: grounding jest pojęciem szerszym, obejmującym różne metody „zakorzenienia” odpowiedzi modelu (w tym RAG, ale nie tylko), podczas gdy RAG opisuje konkretną architekturę łączącą wyszukiwanie z generowaniem. ↩
- Wyrok TSUE z 13 listopada 2018 r. w sprawie C-310/17 Levola Hengelo. Trybunał orzekł, że pojęcie „utworu” w rozumieniu prawa unijnego wymaga, aby chroniony przedmiot został wyrażony w sposób pozwalający na jego zidentyfikowanie z wystarczającą dokładnością i obiektywnością (pkt 40). Nie może być zatem „utworem” — a w konsekwencji przedmiotem zwielokrotnienia — coś, co nie daje się w taki sposób wyodrębnić i rozpoznać. Pełnomocnik pozwanego wywiódł stąd, że skoro w wytrenowanym modelu nie istnieją identyfikowalne fragmenty utworów, lecz jedynie parametry liczbowe opisujące statystyczne zależności językowe, to model nie zawiera zwielokrotnionych egzemplarzy danych treningowych. ↩
- Ten pogląd funkcjonuje w europejskiej nauce prawa w kontekście memoryzacji. Zob. M. Leistner, Memorisierungen und urheberrechtliche Vervielfältigungen in KI-Modellen, GRUR 2026, s. 185 i n.; M. Leistner, L. Antoine, TDM and AI Training in the European Union — From 'LAION’ to Possible Ways Ahead?, GRUR International 2025. To jednak tylko jedna z (potencjalnie możliwych) odpowiedzi na pytanie o to, czy model zawierający zmemoryzowane dane treningowe jest ich kopią, a nie o to, czy w czasie trenowania tego modelu dochodzi do zwielokrotnienia. ↩
- Wyrok High Court of Justice (Ch) z 4 listopada 2025 r. w sprawie Getty Images (US), Inc. przeciwko Stability AI Ltd [2025] EWHC 2863 (Ch). Sąd orzekł, że model Stable Diffusion nie stanowi „kopii naruszającej” (infringing copy), ponieważ nie przechowuje kopii danych treningowych — wagi sieci neuronowej reprezentują wyekstrahowane wzorce statystyczne, nie reprodukcje obrazów. Szerzej o wyroku pisałem na blogu. ↩
- Wyrok TSUE z 24 października 2024 r. w sprawie C-227/23 Kwantum Nederland i Kwantum België przeciwko Vitra Collections. Sprawa dotyczyła ochrony prawnoautorskiej dzieł sztuki użytkowej pochodzących z państw trzecich. Trybunał orzekł, że zakres stosowania dyrektywy 2001/29/WE (InfoSoc) jest określony nie według kryterium państwa pochodzenia utworu ani obywatelstwa twórcy, lecz poprzez odniesienie do rynku wewnętrznego, którego zasięg terytorialny pokrywa się z zakresem stosowania traktatów (pkt 45). Na rozprawie wyrok ten posłużył za argument, że prawo unijne stosuje się do każdej usługi komercjalizowanej na rynku wewnętrznym — niezależnie od tego, gdzie dokonano czynności trenowania modelu AI. Analogia ta jest jednak dyskusyjna, ponieważ w sprawie Kwantum chodziło o wprowadzanie do obrotu egzemplarzy utworu na terytorium UE, a nie o czynności przygotowawcze dokonywane poza Unią. ↩
- Stanowisko państw członkowskich wyraźnie nawiązuje do kontrowersyjnego poglądu E. Rosati, zgodnie z którym czynności ekstrakcji i zwielokrotniania dokonywane w ramach TDM są funkcjonalnie niezbędne do trenowania modeli AI udostępnianych następnie w UE, a więc stosowanie prawa unijnego do tych czynności jest uzasadnione ze względu na „szerszy proces, którego są częścią” (the broader process of which they are part). Zob. E. Rosati, Infringing AI: Liability for AI-Generated Outputs under International, EU, and UK Copyright Law, „European Journal of Risk Regulation” 2024. ↩
- Odwołania do art. 53 ust. 1 lit. c) AI Act w kontekście terytorialności prawa autorskiego mogą zaskakiwać. Art. 53 określa wymogi, jakie musi spełniać model AI ogólnego przeznaczenia wprowadzany do obrotu na rynku wewnętrznym UE (a wiec wymogi w zakresie zgodności), a nie rozstrzyga o terytorialnym zakresie stosowania prawa autorskiego ani interpretacji zasady lex loci protectionis. AI Act i prawo autorskie stanowią odrębne reżimy prawne, oparte na odmiennych założeniach konstrukcyjnych i egzekwowane przez różne organy. Motyw 108 AI Act wprost stwierdza, że rozporządzenie „nie wpływa na egzekwowanie przepisów dotyczących praw autorskich”. Interferencja obu reżimów — w szczególności próba wywiedzenia terytorialnego zasięgu praw wyłącznych z przepisu o zgodności produktu z wymogami rynku — jest potencjalnie niebezpieczna. ↩
- T. Azzi, Y. El Hage, Rapport de mission sur la loi applicable, en vertu des règles de droit international privé, aux modèles d’intelligence artificielle générative commercialisés dans l’Union européenne, raport złożony Conseil supérieur de la propriété littéraire et artistique (CSPLA), 15 grudnia 2025 r. Raport formułuje kontrowersyjny wniosek, że europejskie prawo autorskie ma zastosowanie zarówno do trenowania, jak i do wdrażania modeli AI komercjalizowanych w Europie — nawet jeśli trening odbył się poza UE. Autorzy wywodzą go z reguł kolizyjnych (loi du pays pour lequel la protection est revendiquée), koncepcji przepisów wymuszających zastosowanie (lois de police) oraz czynu złożonego (délit complexe). Mimo podobieństwa w zakresie skutków pogląd E. Rosati (zob. przypis 7) i stanowisko autorów raportu nie są tożsame. Wspólne jest to, że oba podejścia traktują trenowanie i komercjalizację jako powiązane etapy jednego procesu. Różnica tkwi w tym, skąd wywodzą wniosek — E. Rosati z zakresu stosowania prawa materialnego UE, raport CSPLA z norm kolizyjnych i lokalizacji deliktu. Raport dostępny bezpłatnie na stronie Ministerstwa Kultury Francji (culture.gouv.fr), wraz ze streszczeniem po angielsku. ↩
- Fokalizacja (focalisation) to technika lokalizacji naruszenia praw własności intelektualnej w środowisku online, wypracowana przez TSUE. Chodzi o pytanie, do kogo skierowana jest strona internetowa lub usługa — nie gdzie fizycznie znajduje się serwer, lecz gdzie celuje operator. W wyroku z 18 października 2012 r. w sprawie C-173/11 Football Dataco i in. przeciwko Sportradar Trybunał zastosował to podejście do baz danych — naruszenie prawa sui generis następuje w kraju, do którego użytkownicy usługi są nakierowani, a kraj docelowy wyznaczają takie elementy jak język, waluta, domena krajowa czy reklamy skierowane do mieszkańców danego państwa. Przy zastosowaniu tej metody do AI prawo autorskie danego kraju miałoby zastosowanie, gdy model AI jest eksploatowany w tym kraju lub kieruje swoje działanie do tamtejszej publiczności. Połączenie fokalizacji z koncepcją czynu złożonego — którego zdarzenie sprawcze (trening) zaszło w USA, ale szkoda materializuje się w chwili wyświetlenia odpowiedzi użytkownikowi w UE — pozwoliłoby argumentować, że cały łańcuch od inputu po output należy analizować łącznie, a terytorialność oceniać według miejsca doznania skutku. ↩
- Opinia Rzecznika Generalnego Macieja Szpunara z 20 października 2022 r. w sprawie C-423/21 Grand Production przeciwko GO4YU i in. Sprawa dotyczyła publicznego udostępniania programów telewizyjnych za pośrednictwem platformy streamingowej. Rzecznik Generalny stwierdził, że operator platformy nie dokonuje publicznego udostępnienia, gdy użytkownicy omijają geograficzną blokadę dostępu za pomocą VPN — chyba że blokada jest celowo nieskuteczna (pkt 44). Przedstawiciel Węgier powołał się na tę opinię w kontekście odpowiedzialności dostawcy AI za treści dostępne na terytorium Unii, choć w sprawie Grand Production Trybunał ostatecznie nie wydał wyroku rozstrzygającego tę kwestię co do meritum. ↩
- Wyrok TSUE (wielka izba) z 22 czerwca 2021 r. w sprawach połączonych C-682/18 i C-683/18 Frank Peterson przeciwko Google i YouTube oraz Elsevier przeciwko Cyando. Trybunał orzekł, że operator platformy internetowej, na której użytkownicy zamieszczają treści chronione prawem autorskim, nie dokonuje sam „publicznego udostępniania” tych treści, chyba że — poza samym udostępnieniem infrastruktury — aktywnie przyczynia się do bezprawnego rozpowszechniania, w szczególności gdy mimo powzięcia wiadomości o konkretnych naruszeniach nie podejmuje niezwłocznie działań w celu ich usunięcia. Na rozprawie Komisja powołała się na ten wyrok, argumentując, że bezprawność korzystania z utworów przez chatbota nie może wynikać z samego sposobu działania technologii, lecz musi być wykazana w odniesieniu do konkretnych treści. ↩
- Wyrok TSUE z 12 lipca 2011 r. w sprawie C-324/09 L’Oréal i in. przeciwko eBay International i in. Trybunał orzekł, że operator platformy handlowej może ponosić odpowiedzialność za naruszenie praw do znaku towarowego, jeżeli odgrywa aktywną rolę pozwalającą mu na wiedzę o danych ofertach lub kontrolę nad nimi, a także że właściciel znaku towarowego może zakazać reklamy i oferowania towarów oznaczonych jego znakiem na platformie, jeżeli oferta jest skierowana do konsumentów na terytorium, na którym znak jest chroniony. Komisja przywołała ten wyrok jako ilustrację ogólnej zasady, że o stosowaniu prawa unijnego decyduje ukierunkowanie działalności na terytorium Unii, a nie fizyczna lokalizacja podmiotu. ↩
- Wyrok TSUE z 25 lipca 2018 r. w sprawie C-129/17 Mitsubishi Shoji Kaisha i Mitsubishi Caterpillar Forklift Europe przeciwko Duma Forklifts i G.S. International. Sprawa dotyczyła usuwania znaków towarowych z wózków widłowych sprowadzanych spoza UE i umieszczania na nich własnych oznaczeń przed wprowadzeniem do obrotu w Unii. Trybunał orzekł, że właścicielowi znaku towarowego przysługuje prawo sprzeciwu wobec takich działań, ponieważ pozbawiają go możliwości korzystania z praw wyłącznych przy pierwszym wprowadzeniu towaru na rynek wewnętrzny. Komisja odwołała się do tego wyroku na poparcie tezy, że prawo UE chroni uprawnionych przed pozbawieniem ich korzyści wynikających z praw wyłącznych — nawet jeśli działania prowadzące do tego pozbawienia zostały podjęte poza terytorium Unii. ↩
- Tokenizacja to etap przetwarzania danych tekstowych na postać zrozumiałą dla modelu językowego. Polega na cięciu tekstu na fragmenty (tokeny) — najczęściej odpowiadające słowom lub ich częściom — i przypisaniu każdemu z nich wartości numerycznej w postaci wektora w wielowymiarowej przestrzeni. Tokeny służą wyłącznie jako dane wejściowe procesu trenowania — w toku tego procesu sieć neuronowa stopniowo ustala wagi opisujące statystyczne zależności między nimi, a same tokeny nie są przechowywane w wytrenowanym modelu. Model nie jest zatem „zbiorem tokenów” ani bazą danych treningowych, lecz złożoną funkcją matematyczną opisaną przez miliardy parametrów liczbowych. Pytania sędzi sprawozdawczyni o „zachowanie tokenów” zdają się zakładać, że tokeny istnieją w modelu jako wyodrębnione jednostki — co nie odpowiada sposobowi działania współczesnych sieci neuronowych, choć nie zmienia to prawnoautorskiej kwalifikacji czynności dokonywanych na wcześniejszych etapach procesu (zbierania danych, ich przetwarzania i tokenizacji). ↩
- Test trójstopniowy (three-step test) to klauzula ograniczająca stosowanie wyjątków i ograniczeń prawa autorskiego, wywodząca się z art. 9 ust. 2 Konwencji berneńskiej i przejęta następnie przez porozumienie TRIPS (art. 13) oraz traktaty WIPO. W prawie UE test ten jest zawarty w art. 5 ust. 5 dyrektywy 2001/29/WE (InfoSoc), zgodnie z którym wyjątki i ograniczenia „powinny być stosowane tylko w niektórych szczególnych przypadkach, które nie naruszają normalnego wykorzystania dzieła lub innego przedmiotu objętego ochroną ani nie powodują nieuzasadnionej szkody dla uzasadnionych interesów podmiotów praw autorskich”. ↩
- Wyrok TSUE z 27 września 2017 r. w sprawach połączonych C-24/16 i C-25/16 Nintendo przeciwko BigBen Interactive. Sprawa dotyczyła naruszenia wzorów wspólnotowych przez sprzedaż nieautoryzowanych akcesoriów do konsol Nintendo Wii (m.in. pilotów i platform balansowych) produkowanych we Francji i sprzedawanych za pośrednictwem witryny internetowej dostępnej w kilku państwach członkowskich. Trybunał orzekł, że pojęcie „państwa, w którym naruszenie miało miejsce” w rozumieniu art. 8 ust. 2 rozporządzenia Rzym II odnosi się do państwa, w którym wystąpiło zdarzenie powodujące szkodę — rozumiane jako „pierwotne działanie stanowiące naruszenie, leżące u źródła zarzucanego zachowania” (pkt 108). W przypadku łańcucha czynności obejmującego produkcję w jednym państwie, reklamę internetową i sprzedaż w innym, prawem właściwym jest prawo państwa, w którym dokonano pierwotnego działania naruszającego. Rzecznik Generalny Szpunar powołał się na ten wyrok, proponując analogiczne podejście do łańcucha czynności związanych z AI — od trenowania modelu, przez grounding, po wygenerowanie i wyświetlenie odpowiedzi — jako procesu podlegającego łącznej ocenie z punktu widzenia terytorialności. ↩
