
1,5 Milliarden Dollar. So viel zahlte Anthropic im Bartz-Vergleich — dem größten Urheberrechtsfall der KI-Geschichte. Millionen raubkopierter Bücher, verwendet zum Training von Claude. Kein hypothetisches Szenario, kein Zukunftsproblem. Das ist passiert. Und es verändert alles.
Jahrelang operierten KI-Unternehmen nach dem Prinzip erst trainieren, dann fragen. Riesige Datensätze aus dem Internet zusammengekratzt — Bücher, Artikel, Bilder, Musik — ohne Erlaubnis, ohne Vergütung, oft ohne dass die Urheber es überhaupt wussten. Diese Ära ist vorbei. Die Gerichte haben gesprochen, die Gesetzgeber ziehen nach. Was das für Unternehmen bedeutet, die KI einsetzen? Mehr als die meisten ahnen.
Der Bartz v. Anthropic-Vergleich im Herbst 2025 war der Dammbruch. 1,5 Milliarden Dollar — nicht für ein fehlerhaftes Produkt, sondern für die Art, wie das Produkt hergestellt wurde. Anthropic hatte Millionen urheberrechtlich geschützter Bücher aus Pirateriedatenbanken verwendet, um seine KI zu trainieren. Die Richterin stellte fest: Das Herunterladen und Verarbeiten ganzer Werke geht weit über alles hinaus, was als Fair Use gelten könnte.
Doch Bartz war nur der Anfang. UMG v. Udio endete mit einer revolutionären Vereinbarung: Künstler müssen dem Training aktiv zustimmen (Opt-in), statt aktiv widersprechen zu müssen (Opt-out). Warner Music einigte sich mit Suno darauf, neue Modelle ausschließlich mit lizenzierten Inhalten zu trainieren.
Und dann ist da noch The New York Times v. OpenAI — der Fall, der immer noch läuft und möglicherweise die weitreichendsten Konseqünzen haben wird. Die Times argumentiert, dass ChatGPT ganze Artikel wörtlich reproduzieren kann — was schwer als „transformative Nutzung" zu verkaufen ist.
Die Verteidigungslinie der KI-Branche war elegant und einfach: Training auf urheberrechtlich geschütztem Material ist transformative Nutzung. Das Modell „lernt" aus den Daten wie ein Mensch aus einer Bibliothek — es reproduziert nicht, es abstrahiert. Ein einflussreiches Paper von 2019 verglich LLM-Training mit dem Lesen von Büchern und dem anschließenden Schreiben eigener Texte.
Die Gerichte sahen das anders. Drei Argumente waren entscheidend:
Besonders der letzte Punkt erwies sich als entscheidend. Fair Use setzt voraus, dass die Nutzung den Markt für das Original nicht beeinträchtigt. Wenn ein KI-System aber genau die Dienstleistung bietet, für die das Originalwerk geschaffen wurde — nämlich Information und Unterhaltung —, dann ist das Marktschädigung, nicht Innovation.
Hinter den Milliardenvergleichen stehen reale Menschen. Die Illustratorin, deren Stil von Midjourney reproduziert wird — jetzt von Kunden, die früher sie beauftragt hätten. Der Sachbuchautor, dessen Wissen in ChatGPT-Antworten auftaucht — ohne Qüllenangabe, ohne Vergütung. Die Musikerin, deren Stimme von Suno imitiert wird — ohne dass sie je gefragt wurde.
Der Writers Guild of America Strike 2023 war ein Wendepunkt. Drehbuchautoren streikten 148 Tage lang — und ein Kernthema war KI. Das Ergebnis: Studios dürfen KI nicht als Grundlage für Drehbücher verwenden, und KI-generiertes Material kann keine Autorenschaft begründen. Ein wichtiger Präzedenfall, der über Hollywood hinaus wirkt.
Sarah Silverman, Michäl Chabon, die Authors Guild mit ihren 10.000 Mitgliedern — die Liste der Kläger wächst. Und es geht nicht nur um Geld. Es geht um eine fundamentale Frage: Wem gehört kreative Arbeit in einer Welt, in der Maschinen sie replizieren können?
Die Richtlinie des US Copyright Office vom Mai 2025 war ein Wendepunkt — nicht wegen einer radikalen neuen Position, sondern wegen ihrer Klarheit. Das Amt stellte fest: Wenn KI-Training mit den Lizenzierungsmöglichkeiten eines Werkes konkurriert oder diese verringert, spricht die Fair-Use-Analyse gegen Fair Use.
Was heißt das konkret? Wenn ein Verlag Lizenzen für die Nutzung seiner Texte anbietet — etwa für Zusammenfassungsdienste oder Recherche-Tools — und ein KI-Unternehmen dieselben Texte ohne Lizenz für genau solche Zwecke trainiert, dann ist das kein Fair Use. Die Existenz eines Lizenzmarktes ist der Massstab.
Das Amt empfahl dem Kongress außerdem die Einführung einer verpflichtenden Transparenzpflicht: KI-Unternehmen müssen offenlegen, welche urheberrechtlich geschützten Werke sie zum Training verwenden. Noch ist das keine Gesetzgebung — aber die Richtung ist klar.
Die Vereinbarung zwischen UMG und Udio hat ein Prinzip etabliert, das die gesamte Branche verändern könnte: Opt-In statt Opt-Out.
Bisher funktionierte KI-Training nach dem Opt-Out-Prinzip: Alles, was im Internet steht, darf verwendet werden — es sei denn, der Urheber widerspricht aktiv. Das Problem: Die meisten Urheber wussten nicht einmal, dass ihre Werke verwendet wurden. Und selbst wenn — der Widerspruch war technisch komplex und wurde oft ignoriert.
Opt-In dreht die Logik um: Nichts darf verwendet werden, es sei denn, der Urheber stimmt ausdrücklich zu. Das entspricht dem, wie jede andere Branche funktioniert — ein Verlag fragt vor dem Abdruck, ein Filmstudio lizenziert vor der Verwendung. Dass die KI-Branche hier jahrelang eine Ausnahme für sich beanspruchte, wird rückblickend als einer der größten blinden Flecken der Technologiegeschichte gelten.
Für Künstler bedeutet Opt-In: Kontrolle. Sie können entscheiden, ob und zu welchen Bedingungen ihre Werke zum Training verwendet werden. Für KI-Unternehmen bedeutet es: höhre Kosten, aber auch ein nachhaltiges Geschäftsmodell, das nicht auf der systematischen Verletzung von Urheberrechten basiert.
Wenn Sie KI-Tools in Ihrem Unternehmen nutzen — und das tun die meisten —, dann betrifft Sie das Thema direkt. Nicht als theoretische Überlegung, sondern als rechtliches und geschäftliches Risiko.
Die Frage ist nicht, ob Ihr KI-Anbieter sauber trainiert hat. Die Frage ist, ob Sie das nachweisen können. In einer zunehmend regulierten Welt wird die Herkunft von Trainingsdaten zum Compliance-Thema — ähnlich wie die Herkunft von Rohstoffen in der Lieferkette.
Konkrete Fragen, die Sie Ihrem KI-Anbieter stellen sollten:
Unternehmen, die diese Fragen nicht stellen, gehen ein Risiko ein. Nicht nur ein ethisches — ein finanzielles. Die Bartz-Entscheidung hat gezeigt: Die Kosten können in die Milliarden gehen.
Die Entwicklung der letzten zwei Jahre ist eindeutig: Das Recht holt die Technologie ein. Was als Wildwest-Phase der KI-Entwicklung begann — alles scrapen, alles trainieren, alles monetarisieren —, weicht einem regulierten Markt mit klaren Spielregeln.
Das ist keine schlechte Nachricht. Im Gegenteil: Lizenzierte, transparente KI ist die Grundlage für nachhaltiges Vertrauen. Unternehmen wie Anthropic, die nach teuren Vergleichen auf lizenzierte Daten umgestiegen sind, zeigen: Es geht — und es schafft einen Wettbewerbsvorteil. Kunden wollen wissen, dass die Tools, die sie nutzen, auf einer sauberen Datenbasis arbeiten.
Die Zukunft gehört nicht den Unternehmen, die am meisten Daten zusammengekratzt haben. Sie gehört denen, die das Vertrauen von Urhebern, Nutzern und Regulierern verdient haben. Urheberrecht ist kein Innovationshemmnis — es ist die Grundlage für faire Innovation.
Sie möchten sicherstellen, dass Ihre KI-Lösung auf sauber lizenzierten Daten basiert? Sprechen Sie mit uns über transparente KI-Textanalyse.


KI-Rechenzentren verbrauchen 1.050 TWh Strom bis 2026. Was bedeutet der Energiehunger der KI für Klima und Umwelt?
David
23. März 2026

KI und Militär: Anthropic lehnte 200 Mio. Pentagon-Deal ab, OpenAI macht mit. Wo verläuft die ethische Grenze bei KI und Waffen?
David
11. März 2026