Große Medienunternehmen fordern die KI heraus, doch dies ist nicht die Geschichte des Underdogs, die sie darstellen. | Alexander Avila

Große Medienunternehmen fordern die KI heraus, doch dies ist nicht die Geschichte des Underdogs, die sie darstellen. | Alexander Avila

Das größte Musikunternehmen der Welt ist in die KI-Branche eingestiegen. Im letzten Jahr verklagten die Universal Music Group (UMG) gemeinsam mit Warner Records und Sony Music Entertainment zwei KI-Musik-Startups, weil diese angeblich ohne Erlaubnis deren Aufnahmen zum Training von Text-zu-Musik-Modellen genutzt hätten.

Doch letzten Monat kündigte UMG eine Partnerschaft mit einem der Beklagten, Udio, zur Entwicklung einer KI-Musikplattform an. Ihre gemeinsame Pressemitteilung versprach, das Label werde "das Richtige für die Künstler von UMG tun". Die Interessenvertretung Music Artists Coalition reagierte jedoch skeptisch und erklärte: "Das haben wir schon oft gesehen – alle reden von 'Partnerschaft', aber die Künstler gehen am Ende mit den Krümeln nach Hause."

Diese Klage ist eine von Dutzenden vor US-Gerichten, bei denen Künstler, Verlage und Studios argumentieren, die Nutzung ihrer Werke für KI-Trainings verletze das Urheberrecht. Die Richter ringen damit, wie das Urheberrecht auf Technologien anzuwenden ist, die traditionelle Autorschaftskonzepte herausfordern. Für viele stellt dies sowohl eine rechtliche als auch ethische Frage dar. Im Fall Andersen gegen Stability AI – einer der ersten Sammelklagen bezüglich KI-Bildgeneratoren – behaupten Künstler, die Nutzung ihrer Werke ohne Nennung, Bezahlung oder Zustimmung "verletze die Rechte von Millionen Künstlern".

Zweifellos leiden kreativ Tätige unter dem KI-Boom, da generative KI menschliche kreative Arbeit ersetzt. Im Januar 2024 berichteten über ein Drittel der von der Society of Authors befragten Illustratoren von Einkommensverlusten durch KI, und eine Studie sagt bis 2028 einen Umsatzrückgang von 21 % für audiovisuelle Schaffende voraus.

Als Reaktion darauf hat eine neue Aktivistenbewegung Unterhaltungsmanager und Künstler durch Social-Media-Kampagnen, crowdfinanzierte Lobbyarbeit und Klagen gegen die Tech-Branche vereint. Die "Human Artistry Campaign", gegründet nach dem Prinzip "KI kann menschlichen Ausdruck niemals ersetzen", bringt Kreative und Manager zusammen, um Gesetze zum Schutz von Künstlern vor KI und Big Tech zu unterstützen. Doch einige Künstler, Schaffende und Bürgerrechtsgruppen warnen vor einer anderen Bedrohung: großen Inhalteunternehmen.

Was passiert, wenn gutmeinende Kreative sich mit großen Medienkonglomeraten verbünden, die historisch ihre Arbeit ausbeuteten und Urheberrechte gegen öffentliche Interessen ausweiteten? Während einige Künstler dies als "Feind-meines-Feindes"-Strategie rechtfertigen, scheitert dieser Ansatz, wenn Big Content und Big Tech Verbündete werden.

Der Anwalt für Urheberrecht Dave Hansen von der Authors Alliance argumentiert, dass Urheberrechtsklagen Künstler nicht vor KI schützen werden. Stattdessen führen sie zu exklusiven Lizenzvereinbarungen zwischen großen Medien- und Technologieunternehmen, die alle anderen ausschließen. Die Geschichte stützt diese zynische Sicht – als Streaming aufkam, profitierten Labels und Studios, während Musiker, Autoren und Schauspieler zurückblieben.

Wird KI-Lizenzierung anders verlaufen? Als Runway AI und Lionsgate einen Lizenzvertrag schlossen, fragte Jeremy Zimmer, CEO der United Talent Agency, ob an Lionsgate-Filmen beteiligte Künstler entschädigt würden, wenn ihre Arbeit KI-Modelle trainiert. In mehreren millionenschweren Vereinbarungen zwischen Verlagen und KI-Firmen erhielten Autoren weder Bezahlung noch Opt-out-Rechte.

Selbst wenn US-Gerichte Technologieunternehmen zur Bezahlung von KI-Trainingsdaten verpflichten, werden arbeitende Künstler likely nicht profitieren. Die Schaffung eines Lizenzsystems unter aktuellen Machtungleichgewichten könnte Medienunternehmen erlauben, Künstler zu überreden, Trainingsrechte als Beschäftigungsbedingung abzutreten – was Synchronsprecher bereits erlebt haben. Verpflichtende Lizenzierung müsste Künstler ebenfalls nicht necessarily unterstützen. Lizenzanforderungen zügeln Big Tech. Während Giganten wie Google und OpenAI sich Datenlizenzen leisten können, können kleinere Open-Source-KI-Entwickler dies nicht. Ironischerweise stärkt die Nutzung des Urheberrechts zur Herausforderung von Big Tech nur dessen Dominanz.

Viele Vorschläge, die vorgeben, "Künstler zu schützen", verfehlen nicht nur dieses Ziel, sondern riskieren, sowohl Künstler als auch die Öffentlichkeit zu schädigen. In den USA zielt der NO FAKES Act – unterstützt von großen Entertainmentgruppen – darauf ab, ein bundesweites "digitales Vervielfältigungsrecht" zu schaffen, um nicht einverständliche KI-Kopien einer Stimme oder Erscheinung zu kontrollieren. Doch Bürgerrechtsorganisationen wie das Center for Democracy and Technology und die ACLU haben Bedenken hinsichtlich der vagen Formulierungen des Gesetzes, unzureichender Schutzmaßnahmen für freie Meinungsäußerung und Missbrauchspotenzials geäußert. Das Gesetz würde Einzelpersonen, einschließlich Kindern, erlauben, ihre digitalen Abbildungsrechte für bis zu einem Jahrzehnt (fünf Jahre für Minderjährige) zu lizenzieren. Es ist nicht schwer, sich vorzustellen, wie Studiomanager junge Künstler begierig unter Druck setzen, die Kontrolle über ihre eigene Identität aufzugeben.

Warum verfehlen diese Lösungen das Ziel? Weil viele Urheberrechtsklagen, Lizenzmodelle und digitale Rechtevorschläge Trojanische Pferde für große Inhalteunternehmen sind. Die Copyright Alliance, eine einflussreiche Non-Profit-Organisation, die behauptet, die "Urheberrechtsgemeinschaft" zu vertreten, drängt auf strenge Urheberrechtsregeln für generative KI. Obwohl sie vorgibt, einzelne Schaffende zu unterstützen, ist ihr Vorstand mit Managern von Medientitanen wie Paramount, NBC Universal, Disney und Warner Bros. besetzt.

Warum all der Aufbau öffentlicher Koalitionen, wenn die Unterhaltungsindustrie einfach lukrative Deals mit Tech-Firmen hinter verschlossenen Türen aushandeln könnte? Weil Big Content auf Künstler angewiesen ist. Deren Medienimperien benötigen die Arbeit der Künstler, um Profit zu machen, ihre Lobbybemühungen brauchen die Unterstützung der Künstler, um glaubwürdig zu wirken, und ihre neuen KI-Partner benötigen die Kreationen der Künstler.

Diese Realität unterstreicht eine Strategie, die Unterhaltungsmanager mehr beunruhigt als KI: organisierte Arbeitnehmerschaft. Gewerkschaftlich organisierte kreative Fachkräfte, wie jene der Writers Guild und SAG-AFTRA, haben durch Streiks und Tarifverhandlungen substanzielle KI-Schutzmaßnahmen errungen. Das Urheberrecht ist zu veraltet, starr und ungeschickt, um die Zukunft einer bereits gefährdeten kreativen Arbeitnehmerschaft zu bestimmen. Wenn Big Content Künstler wirklich vor KI schützen wollte, würde es aufhören, ihre Stimmen als Trainingsdaten verkaufen zu wollen, und stattdessen anfangen, auf das zu hören, was sie zu sagen haben.

Alexander Avila ist Video-Essayist, Autor und Forscher.

Häufig gestellte Fragen
Natürlich. Hier ist eine Liste von FAQs zum Thema: Große Medienunternehmen fordern KI heraus, aber das ist nicht die Underdog-Geschichte, die sie darstellen, inspiriert von Alexander Avilas Perspektive.



Allgemeine Einsteigerfragen



1. Worum geht es in diesem Artikel/Video?

Es geht um die Rechtsstreitigkeiten zwischen großen Medienunternehmen und KI-Firmen. Es wird argumentiert, dass die Medienriesen sich als die Kleinen darstellen, die gegen einen Tech-Goliath kämpfen, obwohl sie in Wirklichkeit mächtige Konzerne mit eigenen Motiven sind.



2. Warum verklagen Medienunternehmen KI-Firmen?

Sie klagen primär wegen Urheberrechtsverletzungen. Sie behaupten, dass KI-Modelle mit ihren Artikeln, Geschichten und anderen Inhalten ohne Erlaubnis oder Bezahlung trainiert wurden, was ihrer Ansicht nach illegal ist und ihre Arbeit abwertet.



3. Was bedeutet "das ist nicht die Underdog-Geschichte"?

Es bedeutet, dass wir dies nicht als David gegen Goliath sehen sollten. Die Medienunternehmen sind selbst massive, einflussreiche Konzerne und nutzen diese Erzählung, um öffentliches Mitgefühl zu gewinnen und ihre rechtliche und geschäftliche Position zu stärken.



4. Was sind KI-Trainingsdaten?

KI-Trainingsdaten sind die enormen Mengen an Text, Bildern und anderen Informationen, aus denen ein KI-Modell lernt. Um Wissen zu erlangen, lesen KI-Systeme wie ChatGPT Milliarden von Wörtern aus Büchern, Websites und ja, auch Nachrichtenartikeln, die aus dem Internet gesammelt wurden.



Fortgeschrittene Tiefgehende Fragen



5. Wenn die Medieninhalte öffentlich verfügbar sind, warum kann KI sie dann nicht zum Training nutzen?

Das ist der Kern der rechtlichen Debatte. Medienunternehmen argumentieren, dass öffentlich verfügbar nicht bedeutet, dass Inhalte kostenlos für kommerziellen Profit genutzt werden dürfen. KI-Firmen berufen sich oft auf die Fair-Use-Doktrin, die eine eingeschränkte Nutzung urheberrechtlich geschützten Materials für Zwecke wie Forschung und Bildung erlaubt, aber ihre Anwendung auf KI-Training ist vor Gericht noch ungeklärt.



6. Was sind die wahren Motive der Medienunternehmen jenseits des Urheberrechts?

Neben dem Schutz des Urheberrechts gehören zu ihren Motiven likely:

Verhandlungsmacht für Lizenzvereinbarungen: Sie wollen KI-Firmen zwingen, sie für die Nutzung ihrer Inhalte zu bezahlen, was eine neue Einnahmequelle schafft.

Marktkontrolle: Sie wollen sicherstellen, dass ihre Marken autoritative Informationsquellen bleiben und nicht durch KI ersetzt werden.

Wettbewerb: Sie sehen KI als direkten Konkurrenten um Publikumsaufmerksamkeit und Werbegelder.