ArtikelFachartikel

EU AI Act: GPAI-Kodex konkretisiert Pflichten – was GPT-Nutzer und Unternehmen in Deutschland jetzt tun müssen

Seit dem 02.08.2025 gelten im EU-Binnenmarkt die Pflichten für General-Purpose-AI-Modelle (GPAI). Bereits am 01.08.2025 hat die EU-Kommission den GPAI-Verhaltenskodex als freiwilliges, aber behördlich anerkanntes Compliance-Werkzeug bestätigt. Der Kodex präzisiert Anforderungen an Transparenz, Urheberrechtswahrung sowie Sicherheits- und Risikomanagement. Das Wichtigste daraus auf einen Blick – klar und kompakt.

Dr. Maximilian Focke
25.08.2025
7 Min. Lesezeit
EU AI Act: GPAI-Kodex konkretisiert Pflichten – was GPT-Nutzer und Unternehmen in Deutschland jetzt tun müssen

EU AI Act: GPAI-Kodex konkretisiert Pflichten – was GPT-Nutzer und Unternehmen in Deutschland jetzt tun müssen

Seit 02.08.2025 gelten im EU-Binnenmarkt die Pflichten für General-Purpose-AI-Modelle (GPAI); am 01.08.2025 hat die EU-Kommission den GPAI-Verhaltenskodex als freiwilliges, aber behördlich anerkanntes Compliance-Werkzeug bestätigt. Der Kodex konkretisiert Transparenz, Urheberrecht sowie Sicherheit/Risikomanagement und hat direkte Implikationen für Firmen, die GPT-Modelle nutzen.

Die zentralen Änderungen im Überblick

  • Soft Law mit Folgen: Genehmigter Praxisleitfaden; wer abweicht, muss alternative Maßnahmen zur AI-Act-Konformität darlegen.
  • Transparenz konkretisiert: Model-Documentation-Form mit Angaben zu Architektur, Training, Datenquellen, Energie, Nutzung; Detailangaben zu Trainingsdaten primär behördlich einsehbar, öffentliche Veröffentlichung empfohlen.
  • Urheberrecht adressiert: Rechte-Compliance-Strategie und Zusammenfassung der Trainingsinhalte; Crawler-Regeln (robots.txt respektieren, keine Paywalls umgehen, Ausschluss wiederholt rechtsverletzender Sites).
  • Sicherheit und Gefahrenabwehr: Für Modelle mit systemischem Risiko verschärfte Pflichten zu Evaluierungen, Red-Teaming, Vorfallmeldungen und Cybersicherheit.
  • Geltungsbereich präzisiert: Leitlinien des AI Office klären, wer als GPAI-Anbieter gilt; Downstream-Integratoren nutzen die Dokumentation für ihre eigenen Pflichten.
  • Offene Punkte: Lücken bei Trainingsdaten-Transparenz und fehlende Sanktionen im Kodex; „open-ended risk identification“ erhöht Rechtsunsicherheit.
  • Relevanz für „GPT-Nutzer“: Kennzeichnung, Content-Labeling, Daten-/Prompt-Policies, Lieferantenprüfung und Dokumentation werden Pflichtprogramm.

Detaillierte Analyse / Einordnung

Wer ist betroffen – Anbieter vs. Anwender (und was das für „GPT-Nutzer“ bedeutet)

Der Kodex richtet sich primär an Anbieter von Basismodellen; er ist freiwillig, aber behördlich genehmigt. Anbieter, die ihn nicht befolgen, müssen ihre AI-Act-Konformität anderweitig strukturiert nachweisen. Da in Europa nur wenige Akteure eigene Basismodelle entwickeln, sind die meisten Unternehmen Downstream-Anwender: Sie integrieren Modelle per API oder SaaS. Für sie entsteht die Pflicht, die bereitgestellten Modelldokumentationen aktiv einzufordern, zu verstehen und in interne Prozesse zu überführen.

Transparenz und Urheberrecht: Model Documentation Form und Trainingsdaten-Zusammenfassung

Das Model-Documentation-Form operationalisiert Art. 53 AI Act mit Angaben zu Modellarchitektur, Trainingsverfahren, Datenquellen-Kategorien, Energieverbrauch und Nutzungsszenarien. Mindestangaben sind Downstream-Partnern bereitzustellen; sensible Details zu Herkunft und Auswahl der Trainingsdaten sind überwiegend Behörden vorbehalten.
Beim Urheberrecht verlangt der Kodex eine belastbare Compliance-Strategie samt Zusammenfassung der zum Training verwendeten Inhalte. Technisch-organisatorisch sind Crawler-Regeln einzuhalten (robots.txt, TDM-Opt-outs, kein Paywall-Bypass) sowie Beschwerdewege für Rechteinhaber vorzusehen. Die Transparenz zu Trainingsdaten bleibt teilweise vage, weil ein finales Template des AI Office maßgeblich wird.

Sicherheit und systemische Risiken: Evaluieren, mindern, melden

Für als systemisch riskant eingestufte Modelle gelten strengere Anforderungen über den gesamten Modelllebenszyklus: adversariale Tests, offene Evaluationen, externes Red-Teaming, Dokumentation und Meldung schwerwiegender Vorfälle sowie definierte Cybersicherheitsziele (u. a. Schutz vor Insider-Bedrohungen, Modelldiebstahl und unautorisierter Verbreitung). Die kontinuierliche Risikoidentifikation erhöht Aufwand und Rechtsunsicherheit, schafft aber einen Rahmen für wiederkehrende Wirksamkeitsprüfungen.

Handlungsempfehlungen für die Praxis

  • Vendor-Due-Diligence: Modelldokumentation und Trainingsdaten-Zusammenfassung anfordern, Crawler-/Lizenzangaben prüfen, SLA zu Vorfallmeldungen und Model-Updates vereinbaren.
  • Kennzeichnung & Content-Policy: KI-Interaktionen für Nutzer sichtbar machen; synthetische oder veränderte Inhalte inklusive Deepfakes klar markieren; Freigabeprozess für generierte Inhalte definieren.
  • Daten- & Prompt-Governance: Regeln, welche Daten in Prompts/Uploads zulässig sind; Schutz sensibler Informationen (Maskierung/Anonymisierung); Opt-outs und robots.txt respektieren.
  • Risikoprüfung je Use Case: Einsatzfelder mit potenziell hohem Risiko (z. B. HR, Kredit, Gesundheit) gesondert bewerten; Human-in-the-Loop, Protokollierung, Bias-/Qualitäts-Checks und Fallbacks implementieren.
  • Security-Härtung: Rollen- und Rechtemanagement, Secret-Management, Rate-Limits, Schutz vor Prompt-Injection, Abuse-Monitoring und Incident-Response aufsetzen; bei externen Modellen API-Isolation beachten.
  • Rechtsrahmen kombinieren: AI Act mit DSGVO und Urheberrecht zusammendenken; Dokumentation versioniert führen und Abweichungen vom Kodex nachvollziehbar begründen.

Fazit

Der EU-Kodex macht die GPAI-Pflichten greifbar und verlagert den Schwerpunkt auf nachvollziehbare Dokumentation, Rechte-Compliance und robuste Sicherheitsprozesse. Für typische „GPT-Nutzer“ zählt jetzt vor allem: Kennzeichnen, Lieferanten prüfen, Risiken testen und alles sauber dokumentieren. Wer früh Governance, Policies und Nachweise etabliert, senkt Risiken und schafft einen belastbaren KI-Betriebsstandard.