top of page

AI-Act-Update: Kennzeichnung KI-generierter Inhalte


Futuristische Abbildung AI Act (Hintergrund von Brian Penny, Pixabay)

Der Artificial Intelligence Act der EU (kurz: AI Act) ist vielen inzwischen ein Begriff. Weniger klar sind oft seine praktischen Konsequenzen. Wer in Biotech, Medtech oder Pharma kommuniziert, sollte daher wissen, wie Transparenz und Kennzeichnung künftig gedacht sind. Nachfolgend ein kompaktes Update zum Stand der Leitlinien rund um die Kennzeichnung KI-generierter Inhalte mit Blick auf die praktische Umsetzbarkeit.





Die EU konkretisiert, wie Unternehmen KI-generierte Inhalte transparent kennzeichnen sollen. Das ist ein Thema, das in der datensensiblen Life-Science-Kommunikation schnell relevant werden kann. Am 3. März 2026 wurde dazu der zweite Entwurf eines freiwilligen Verhaltenskodex („Code of Practice“) veröffentlicht, der die Umsetzung der Transparenzpflichten nach Artikel 50 unterstützen soll. Rückmeldungen können bis zum 30. März (EOB) eingereicht werden; die Finalisierung ist bis Anfang Juni 2026 geplant. Die Transparenzpflichten der KI-Verordnung werden ab 2. August 2026 anwendbar.


EU Timeline zur Kennzeichnung KI-generierter Inhalte

Für Life-Science-Unternehmen ist das kein Randthema. Viele KMU nutzen KI bereits, um Online-Inhalte (Website-Texte, Support-Artikel, Social-Media-Beiträge usw.) schneller, effizienter und kostenschonender zu erstellen. Gleichzeitig ist Kommunikation in den Bereichen Biotech, Medtech und Pharma besonders vertrauenssensibel. KI-Kennzeichnung ist daher weniger eine reine „Compliance-Übung“, sondern vielmehr ein Fundament für eine verlässliche, transparente Kommunikation.


Der Entwurf ist in zwei Hauptteile untergliedert:

  1. Abschnitt adressiert KI-Anbieter und technische Aspekte (maschinenlesbare Markierungen, Detektierbarkeit usw.)

  2. Abschnitt richtet sich an KI-Betreiber und die Anwendungspraxis (Kennzeichnungen und Transparenzhinweise).


 

Dieser Beitrag setzt den Schwerpunkt bewusst dort, wo die meisten Life-Science-KMU unmittelbar entscheiden müssen: bei der Veröffentlichung und Kennzeichnung KI-generierter Inhalte. Daher wird der Fokus auf Betreiber generativer KI-Systeme gesetzt, also Unternehmen, die solche Systeme im Betriebsalltag einsetzen (siehe auch KI-Nutzer). Hinweis: Wenn Sie sich unsicher sind, ob Sie unter die Bezeichnung eines KI-Betreibers fallen, empfehlen wir Ihnen unseren Artikel: AI Act (Teil 3): Handlungsempfehlungen für GenAI-Betreiber


Kerninhalte für KI-Betreiber

Der Kodex soll als freiwilliges Instrument helfen, Transparenzpflichten aus Art. 50 in die Praxis umzusetzen. Für KI-Betreiber sind zwei thematische Schwerpunkte von Interesse:


  • Die praktische Offenlegung von Deepfakes, sowie

  • Die konkrete Kennzeichnung KI-generierter Textpublikationen zu Themen von öffentlichem Interesse


Für Life-Science Unternehmen kann insbesondere Letzteres schnell relevant werden, etwa wenn es um Studien-Updates, Sicherheits- und Risikoinformationen, Produktkommunikation sowie Inhalte geht, die Patient:innen bzw. Anwender:innen an Dritte weitergeben.


Ausnahmen von der Offenlegungspflicht bestehen jedoch, wenn die folgenden drei Bedingungen zumindest in einem Mindestmaß dokumentiert sind:


  1. Menschliche Überprüfung: Es findet eine reale inhaltliche Prüfung vor Veröffentlichung statt.

  2. Redaktionelle Kontrolle: Es gibt einen definierten Prozess bzw. Workflow, der diese Prüfung sicherstellt.

  3. Redaktionelle Verantwortung: Eine benannte natürliche Person oder das Unternehmen als juristische Person trägt die Verantwortung für die Veröffentlichung und fungiert als Ansprechstelle.


Die o.g. Voraussetzungen können auch von einer einzelnen Person erfüllt werden; es braucht dafür keine große Redaktion mit mehreren Mitarbeitern. Art. 50 der KI-VO enthält zudem keine ausdrückliche Regelung bezüglich einer rückwirkenden Offenlegungspflicht. Maßgeblich ist vielmehr, dass die Transparenzpflichten ab dem 2. August 2026 anwendbar werden. Ausnahmslos von der Pflicht betroffene Inhalte, die auch danach noch öffentlich zugänglich sind, müssen dann entsprechend aktualisiert bzw. gekennzeichnet werden.

Was sich im 2. Entwurf für KI-Betreiber verändert hat


Der aktuelle Entwurf ist nach Kommissionsangaben schlanker, flexibler und weniger Compliance-lastig. Gleichzeitig werden darin offene Standards gefördert (kompatibel, herstellerneutral) sowie ein EU-weites einheitliches Icon vorgeschlagen. Hier die wichtigsten Punkte:


  1. Klarere Leitlinien für „menschliche Überprüfung“ und „redaktionelle Verantwortung“: Präzisierungen dazu erleichtern es, an bestehende Freigabe- und Review-Prozesse anzuknüpfen.

  2. Mehr Orientierung bei Symbolen, Etiketten und Haftungsausschlüssen: Konkretere Gestaltungs- und Platzierungsanforderungen sowie ein Mindestmaß an Einheitlichkeit helfen Unternehmen bei einer klareren konsequenten Umsetzung. 

  3. EU-weites einheitliches Kennzeichnungssymbol: Ein „AI Icon“ reduziert den Bedarf an individuellen Lösungen und erhöht die Wiedererkennbarkeit. Unten einige Vorschläge aus dem 2. Entwurf für ein mögliches Symbol:


    Illustrationsvorschläge der Kommission zu einem möglichen EU-Icon
    Hinweis: Aktuelle Beispiele der Europäischen Kommission aus dem 2. Entwurf vom 3.3.2026. Diese dienen nur zur Illustrationszwecken.

  4. Taxonomie entfällt:  Im 1. Entwurf hätte man in vielen Fällen erst diskutieren müssen: Ist das noch „KI-unterstützt“ oder schon „KI-generiert“? Da diese Unterscheidung in der Kennzeichnung beim 2. Entwurf entfällt, werden Grenzfall-Debatten im Team reduziert. Auch wenn damit keine taxonomisch differenzierte Kennzeichnungspflicht mehr besteht, zeigen die folgenden Beispiele typische Grenzfälle aus dem Life-Science Bereich:


Studienupdate/ Pressetext:

KI als „First Draft“

Situation: Die Kommunikationsabteilung erstellt eine Mitteilung zu Studienmeilensteinen; KI schreibt den ersten Entwurf auf Basis eines internen Briefings, Team finalisiert. Debatte: „Reicht ‘KI-unterstützt’, weil wir final verantworten – oder ist es ‘KI-generiert’, weil die gesamte Dramaturgie/Argumentation aus dem KI-Draft kommt?“ Warum Grenzfall: Der „Ton“ und die Struktur prägen die Aussage, obwohl Fakten geprüft sind.

Bildmaterial/

Infografiken

KI-generierte Visuals, von Mitarbeitern gelieferte Daten

Situation: Medtech-Team liefert Messwerte und Diagrammidee, KI baut eine Infografik/Illustration, Designer korrigiert.

Debatte: „Ist das KI-assistiertes Design oder ein KI-generiertes Bild?“


Warum Grenzfall: Daten sind real, Visual ist KI-erzeugt; das wirkt wie „halb/halb“.


Zusammenfassungvon wissenschaftlichen Quellen

Situation: Scientific Writing lässt KI drei Papers zusammenfassen und daraus eine „Key Takeaways“-Box für eine Website erstellen; danach Review.


Debatte: „Ist das assistiert (Zusammenfassung von Quellen) oder generiert (neuer Text mit neuen Formulierungen und möglicherweise neuen Schlussfolgerungen)?“


Warum Grenzfall: „Zusammenfassung“ klingt harmlos, ist aber faktisch Neutext.


Bei den o.g. Beispielen geht es deshalb nicht mehr in erster Linie um die Frage, ob ein Inhalt als ‚KI-unterstützt‘ oder ‚KI-generiert‘ zu bezeichnen ist. Entscheidend ist vielmehr, ob er überhaupt unter die Transparenzpflichten des Art. 50 Abs. 4 AI Act fällt. Das ist nicht bei jeder KI-Nutzung der Fall, sondern vor allem bei Deepfakes sowie bei bestimmten KI-generierten oder KI-manipulierten Texten von öffentlichem Interesse.


Bei solchen Texten kann die Pflicht entfallen, wenn vor der Veröffentlichung eine menschliche Prüfung stattfindet und redaktionelle Verantwortung besteht. Eine verbindliche Standardformulierung für den Hinweis ist in den zugänglichen Kommissionsmaterialien bislang nicht erkennbar. Denkbar sind etwa Label, Disclaimer oder künftig ein EU-Icon (siehe Illustration oben).


Fazit


Der 2. Entwurf des Verhaltenskodex zur Kennzeichnung von KI-generierten Inhalten setzt stärker auf Vereinfachung und Standardisierung. Das ist genau das, was kleine und mittelständische Unternehmen benötigen. Mit einem klaren, konsistenten Kennzeichnungsstandard lässt sich die KI-Nutzung in der Life-Science-Kommunikation transparenter gestalten und Vertrauen langfristig absichern.


Entscheidend ist nun, interne Zuständigkeiten, Prüfprozesse und Kennzeichnungspraktiken rechtzeitig festzulegen. So entsteht eine belastbare Grundlage, um generative KI auch unter den künftigen Transparenzanforderungen verlässlich einzusetzen.



Wenn Ihnen dieser Artikel gefallen hat, freuen wir uns über Ihr Feedback in den Kommentaren. Teilen Sie Ihre Gedanken und lassen Sie uns wissen, wie wir Sie noch besser unterstützen können. Verpassen Sie außerdem nicht unsere nächste Veröffentlichung im neuen Jahr, die wie immer donnerstags und diesmal am 30. April erscheint.



Weitere nützliche Quellen:


Disclaimer:  Alle Angaben erfolgen nach bestem Wissen und Gewissen, jedoch ohne Gewähr für Vollständigkeit, Richtigkeit und Aktualität.




Das könnte Sie auch interessieren:


Futuristische Abbildung AI Act (Hintergrund von Brian Penny, Pixabay)

Kommentare


bottom of page