
CODA vs. OpenAI Sora 2: warum Japans Rechteinhaber jetzt eine rote Linie ziehen
Am 28. Oktober hat die japanische Content Overseas Distribution Association (CODA) ein schriftliches Verlangen an OpenAI übermittelt: Der Videogenerator Sora 2 dürfe nicht länger mit urheberrechtlich geschützten Werken der Mitglieder trainiert werden, sofern keine vorherige Einwilligung vorliegt. Der Schritt folgte auf einen turbulenten Monat seit dem öffentlichen Start von Sora 2 am 1. Oktober, als Feeds in Windeseile mit eindrucksvollen KI-Clips geflutet wurden, die teils frappierend an ikonische japanische Marken und Bildsprachen erinnerten.
OpenAI-Chef Sam Altman hob zwar die „tiefe Verbindung der Nutzer mit japanischem Content“ hervor – doch genau diese Resonanz legt die Streitfrage offen: Wenn eine Modellfamilie Bilder und Szenen erzeugt, die stark an bekannte Figuren, Stilmittel und visuelle Grammatik erinnern, auf welcher Datengrundlage wurde das trainiert – und mit welcher Rechtsgrundlage? Aus CODAs Sicht ist die Antwort im japanischen Recht eindeutig: Erst Einwilligung, dann Nutzung. Ein nachträglicher Opt-out heile eine vorherige Verletzung nicht.
Wer hinter CODA steht – und warum das Gewicht hat
CODA wurde 2002 gegründet, um Piraterie zu bekämpfen und die legale Auslandsdistribution japanischer Werke zu fördern. Die Organisation vereint große Player aus Anime, Manga und Games – von Studios bis Publishern. Genau diese Breite verleiht der Intervention Schlagkraft: Es geht nicht um eine isolierte Beschwerde, sondern um den Versuch, in der Ära generativer Video-KI belastbare Branchenstandards einzuziehen.
Der Kern der Forderungen
Nach CODAs Darstellung ähneln zahlreiche Sora-2-Ausgaben japanischen Werken oder Bildern so sehr, dass nahe liegt: Mitgliederkataloge seien ohne Erlaubnis als Trainingsdaten verwendet worden. Daraus leitet CODA zwei konkrete Punkte ab: Erstens, keine Nutzung der Werke der Mitglieder für das Training ohne vorherige Freigabe. Zweitens, eine ernsthafte, nachvollziehbare Bearbeitung von Hinweisen und Ansprüchen zu möglicherweise rechtsverletzenden Ausgaben der Modelle.
Opt-out gegen Einwilligung: zwei Welten prallen aufeinander
Vor dem Launch soll OpenAI ausgewählte Studios und Agenturen kontaktiert und einen Opt-out angeboten haben. Unklar bleibt jedoch, wer tatsächlich erreicht wurde und ob zentrale japanische Rechteinhaber innerhalb des knappen Zeitfensters reagieren konnten. Beobachter bemerkten am Starttag, dass sich manche amerikanischen IPs offenbar schwerer generieren ließen – ein Indiz für Filter. Altman sprach später davon, Rechteinhabern Entscheidungshoheit einzuräumen und „Randfälle“ nicht ausschließen zu können. Für CODA greift diese Logik zu kurz: In Japan gilt der Grundsatz „Einwilligung vor Nutzung“; ein nachgereichter Widerspruch befreit nicht von Verantwortung, wenn bereits ohne Lizenz trainiert wurde.
Politischer Kontext in Japan
Schon Anfang Oktober hatte das Kabinettsbüro OpenAI aufgefordert, japanische IPs nicht zu verletzen. In der Folge diskutierten Politiker, ob im Zweifel Instrumente des nationalen AI-Fördergesetzes herangezogen werden müssten, sollte Freiwilligkeit scheitern. Die Botschaft: Ein Land mit starker Urhebertradition erwartet, dass sich globale Modelle an lokale Normen anpassen – nicht umgekehrt.
Öffentliche Stimmung: Klagen, „Genie aus der Flasche“ und der Ruf nach Lizenzen
Die Reaktionen sind gespalten. Ein lautstarkes Lager verlangt harte Klagen und verweist darauf, dass in der Tech-Branche echte Abschreckung meist erst mit spürbaren Gerichtskosten einsetzt. Andere warnen, dass Staaten selbst in KI-Champions investieren und Durchsetzung dann selektiv werden könne. Wieder andere sagen: Die Technik ist da, man werde sie nicht zurückdrehen; der realistische Weg führe über klare Lizenzmodelle, anständige Vergütung und Punktlandungen gegen offensichtliche Verstöße – wissend, dass komplette Leckagefreiheit illusorisch ist.
Zwischen den Fronten artikuliert sich eine Nuance: Manche Kreative wären zu einem sauberen Opt-in bereit – „nutzt meinen Katalog, wenn nachvollziehbar gezahlt und granular gesteuert wird“. Andere sehen in Sora 2 einen Plagiatsmotor, solange die Trainingsbasis nicht lückenlos lizenziert ist. Und viele verlagern den Blick auf die Distribution: Selbst mit strengeren Trainingsregeln lassen sich problematische Clips über Influencer-Ökosysteme und Repost-Farmen massenhaft verbreiten. Ohne robuste Plattformaufsicht verpuffen Schutzmaßnahmen an der Quelle.
Wie ernst gemeinte Compliance aussehen könnte
- Lizenzierung an der Quelle: explizite, auditierbare Zustimmungen der Rechteinhaber vor dem Training, mit regionalen Klauseln und Widerrufswegen.
- Transparente Datensätze: nachvollziehbare Provenienzprotokolle, die lizensierte Inhalte, Public-Domain-Material und verbotene Assets trennscharf ausweisen.
- Stärkere Filter & Output-Prüfungen: Blocklisten jenseits einiger westlicher Marken; Erkennung typischer Figuren, Stile und „Szenengrammatiken“ japanischer IP.
- Wasserzeichen & Tracing: belastbare Signale, die Verbreitungswege sichtbar machen und Plattformen schnelle Takedowns ermöglichen.
- Creator-Kontrollpaneele: feingranulares Opt-in nach Titel/Franchise/Zeitraum sowie transparente Beteiligungsmodelle, wenn lizenzierte Kataloge Mehrwert stiften.
Risiken und die mögliche Mitte
Für OpenAI und Mitbewerber drohen bei Nichtbeachtung Klagen, regionale Beschränkungen oder spätere, härtere Auflagen. Rechteinhaber riskieren bei Maximalpositionen zugleich, neue Entdeckungskanäle zu verstellen und globale Standards weiter zu fragmentieren. Der Mittelweg – klare Lizenzen plus harte Filter – verlangt operative Disziplin und Branchenregeln, die es im generativen Video erst noch zu schärfen gilt.
Ausblick
CODAs Schreiben beendet die Debatte nicht, es markiert eine Grenze. Kurzfristig spricht vieles für mehr Druck auf Datenherkunft, schnellere Entfernungen beanstandeter Ausgaben und Verhandlungen, die an die Entwicklung in der Musik erinnern: vom Graubereich zur lizenzierten Infrastruktur. Ob Verträge oder Gerichte den Takt vorgeben, eines zeichnet sich ab: Künftige Bewertungen werden nicht nur der Wow-Optik von Sora-2-Clips gelten, sondern auch der Frage, ob das Modell nachweislich auf die richtige Art gelernt hat.
Und jenseits einzelner Kultfiguren geht es um Grundsätzliches: Wer schreibt die Regeln der kulturellen Erinnerung im Maschinenzeitalter – und werden diejenigen, die dieses Gedächtnis speisen, fair beteiligt?
1 kommentar
Japan hat das seit Jahren kommen sehen: starke Urheberrechte vs. Gen-KI war vorprogrammiert