Rechtswissenschaftler der Goethe-Universität entwirft Urheberrechtsregeln des ersten EU-Praxisleitfadens für KI-Modelle.

Bald drei Jahre ist es her, dass ChatGPT die Welt veränderte. Der Einsatzvon KI ist seitdem auch für viele Hochschulangehörige zur alltäglichen Routine geworden. Fragen beantworten, Texte übersetzen, Daten auswerten, Code schreiben, Bilder und Videos generieren – die Verwendungszwecke und Potenziale von KI scheinen grenzenlos. Ebenso vielfältig sind jedoch die mit KI verbundenen Risiken. KI kann zum Bombenbauen anleiten, Falsches behaupten, unzulässig diskriminieren und – was für diesen Bericht besonders interessiert – in Konflikt mit dem Urheberrecht treten. Die EU hat auf diese Herausforderungen früh und umfassend mit der Verordnung 2024/1689 über künstliche Intelligenz reagiert. Ziel der Verordnung ist es einerseits, die Einführung von KI zu fördern und KI-Innovationen zu unterstützen. Andererseits soll das Gesetz sicherstellen, dass in der EU ein hohes Maß an Schutz vor schädlichen KI-Auswirkungen herrscht und letztlich nur „auf den Menschen ausgerichtete“ und „vertrauenswürdige“ KI auf den Markt kommt. Um diese hehren, aber auch abstrakten Ziele zu erreichen, sieht die KI-Verordnung den Erlass zahlreicher nachgeordneter Regularien vor, die näher spezifizieren sollen, welchen Anforderungen eine KI genügen muss, um den EU-Standards zu entsprechen.
Unabhängige Arbeitsgruppen
Zu diesen Regularien zählt ein „Praxisleitfaden“, der die Pflichten der Anbieter grundlegender KI-Modelle, zum Beispiel dem Generative Pretrained Transformer (GPT), der dem System ChatGPT zugrunde liegt, konkretisieren soll. Der Praxisleitfaden ist kein förmliches EU-Gesetz, sondern ein ko-regulatives Instrument, das in einem zwölfmonatigen, einzigartigen Verfahren erarbeitet wurde und an dem Alexander Peukert, Professor für Bürgerliches Recht, Wirtschafts- und Informationsrecht am Fachbereich Rechtswissenschaft, maßgeblich beteiligt war. Die Europäische Kommission hatte die Formulierung des Praxisleitfadens nämlich nicht selbst übernommen oder der Selbstregulierung der KI-Anbieter überlassen, sondern an unabhängige Experten delegiert, die drei Arbeitsgruppen vorsaßen: zu Transparenzregeln, zum Management systemischer Risiken und zu urheberrechtlichen Aspekten von KI. Gemeinsam mit einer Rechtswissenschaftlerin der Universität Ottawa war Peukert für die zuletzt genannte Urheberrechtsthematik zuständig. Es galt zu bestimmen, welche internen Compliance-Regeln ein KI-Modellanbieter implementieren muss, um sicherzustellen, dass seine Modelle mit dem Urheberrecht der EU im Einklang stehen.
Der Prozess der Erarbeitung des Praxisleitfadens startete im Juli 2024 mit einer öffentlichen Konsultation, in deren Rahmen die beteiligten Kreise ihre Vorstellungen vom richtigen Regulierungsmaß einbringen konnten. Mehr als 400 KI-Anbieter, Urheberrechtsinhaber, Wissenschaftler und einschlägige NGOs machten hiervon Gebrauch. Zudem organisierte das neu geschaffene EU KI-Büro Online-Workshops, in denen die Stakeholder ihre wichtigsten Forderungen auch mündlich vortragen und den Arbeitsgruppenleitern Fragen stellen konnten. Der auf dieser Informationsgrundlage verfasste erste Entwurf des Praxisleitfadens wurde von der Kommission im November 2024 veröffentlicht. Kurz vor Weihnachten und im März 2025 folgten zwei weitere Entwürfe, denen wiederum schriftliche Konsultationen und Workshops vorangingen. Hinzu kamen Sitzungen mit Mitgliedern des Europäischen Parlaments und dem „KI-Gremium“, in dem Vertreter der EU-Mitgliedstaaten versammelt sind. Im weiteren Verlauf erreichten die Entwurfsverfasser überdies zahlreiche Bitten von KI-Anbietern und weiteren Beteiligten, Einzelheiten des Praxisleitfadens in bilateralen Gesprächen zu erörtern. Das KI-Büro hatte zu diesen Hintergrundgesprächen ermuntert, und tatsächlich konnten in diesem geschützten Raum einige sinnvolle Klärungen erreicht werden. Da die Gefahr der unzulässigen Einflussnahme und ein hiermit verbundener Reputationsschaden aber auf der Hand lag, führte Peukert ein öffentliches Tagebuch, das die Daten, Teilnehmer und Themen aller von ihm geführten, bilateralen Gespräche auflistet und das weiterhin auf seiner Website abrufbar ist.
Intensiver Abstimmungsbedarf
Die endgültige Fassung des Praxisleitfadens wurde am 10. Juli 2025 und damit zwei Monate später als ursprünglich geplant publiziert. Die Verzögerung beruhte insbesondere auf dem intensiven Abstimmungsbedarf zwischen den Entwurfsverfassern einerseits und dem KI-Büro und weiteren Kommissionsdienststellen, zum Beispiel der Abteilung für Urheberrecht, einerseits. Der kaum zu überschätzende Einfluss der Kommission auf den Praxisleitfaden beruhte zum einen auf ihrer Hoheit über das Verfahren. Kein Entwurf erblickte das Licht der Öffentlichkeit, der nicht vorab mit der Kommissionshierarchie abgestimmt worden war, die zum Teil detaillierte Rückmeldungen gab. Zum anderen bedurfte der Praxisleitfaden nach den Vorgaben der KI-Verordnung des Segens der Kommission und der Mitgliedstaaten, um überhaupt Rechtswirkungen zu entfalten. Der entsprechende Beschluss über die Angemessenheit des Praxisleitfadens wurde einen Tag vor dem Inkrafttreten der gesetzlichen Grundlagen am 1. August 2025 veröffentlicht. Zugleich teilte die Kommission mit, dass sich immerhin 26 KI-Modellanbieter, unter ihnen bedeutende US-amerikanische Unternehmen wie Amazon, Google, IBM, Microsoft und OpenAI, auf den Praxisleitfaden stützen werden, um den Nachweis zu führen, dass sie ihre gesetzlichen Pflichten nach der KI-Verordnung einhalten. Ihre Unterschrift verschafft ihnen einen gewissen Vertrauensvorschuss beim KI-Büro der Kommission, das vornehmlich prüfen wird, ob sich die Unterzeichner auch tatsächlich an den Praxisleitfaden halten, während andere Unternehmen umfassend darlegen müssen, was sie tun, damit ihre Modelle den EU-Vorgaben unter anderem zum Urheberrecht entsprechen.
Nachdem die Arbeiten am Praxisleitfaden zu einem erfolgreichen Abschluss gekommen sind, werden nun seine Auswirkungen auf die global agierende KI-Industrie zu beobachten sein. Die urheberrechtlichen Regeln im Praxisleitfaden schließen jedenfalls eine Wild-West-Manier aus, wie sie in der Vergangenheit weitverbreitet gewesen zu sein scheint, als teilweise sogar bewusst Inhalte bekannter Piraterieseiten für das Training von KI-Modellen verwendet wurden. Hervorzuheben ist ferner, dass sich die Unterzeichner zur Moderation des KI-Outputs verpflichtet haben, um das Risiko von Urheberrechtsverletzungen zu reduzieren. Alexander Peukert wird die weiteren Entwicklungen nun wieder aus der gewohnten Beobachterrolle des Wissenschaftlers verfolgen. Der erste Fachaufsatz zum Praxisleitfaden ist bereits fertiggestellt.











