AI Act (Teil 2): Handlungsempfehlungen für GenAI-Anbieter
- Titus Kaletta
- 9. Okt.
- 11 Min. Lesezeit
Aktualisiert: 6. Nov.

Überlegen Sie, GenAI-Modelle zu entwickeln, in Produkte zu integrieren und/oder zu vertreiben – sind sich aber nicht sicher, wie die KI-Verordnung Ihr Vorhaben beeinflusst? Unsere konkreten Handlungsempfehlungen für Anbieter-Unternehmen zeigen, wie sich die am 02.08.2025 wirksam gewordenen Vorgaben möglichst effizient und praxisnah umsetzen lassen. Behalten Sie den Durchblick!
Zusammenfassung
|
Inhaltsverzeichnis
1. Anbieter, nachgelagerter Anbieter oder Hersteller? Eine kurze Rollendefinition 2. GenAI ab 02.08.2025: Klarer Rahmen für Life-Science-KMU
Seit August 2025 gelten gemäß der KI-Verordnung der EU (Artificial Intelligence Act oder auch kurz AI Act bzw. KI-VO) für KI-Modelle mit allgemeinem Verwendungszweck (General Purpose AI oder kurz GPAI) verbindliche Transparenz- und Nachweispflichten - darunter fällt auch Generative AI (GenAI). Diese Pflichten betreffen natürlich auch mittelständische Life-Science-Unternehmen aus den Bereichen Medtech, Biotech und Pharma, die künstliche Intelligenz und speziell GPAI nutzen wollen. Um eine Übersicht über alle kürzlich wirksam gewordenen Artikel zu erhalten, lesen Sie unseren vorherigen Artikel: AI-Act-Update für Life-Science-KMU (Teil 1)
In diesem Folgebeitrag erklären wir die neuen Anforderungen auf verständliche Weise und geben konkrete Umsetzungsempfehlungen. Dabei konzentrieren wir uns in Teil 2 vorwiegend auf die Rolle der (nachgelagerten) Anbieter. Wir schaffen Orientierung im juristischen Begriffsdschungel, u. a. zur Pflicht der „menschlichen Aufsicht“ und deren Notwendigkeit. Zudem empfehlen wir den am Quality-by-Design angelehnten Ansatz „Compliance by Design“, um Life-Science-Unternehmen die Regelkonformität bereits in der Konzeption und Entwicklung zu erleichtern. Zunächst sollten wir uns jedoch mit den verschiedenen Rollen, die die KI-Verordnung vorsieht, beschäftigen.
1. Anbieter, nachgelagerter Anbieter oder Hersteller? Ein kurzer Rollenüberblick
Viele Unternehmen verlieren allmählich den Überblick angesichts der vielen verschiedenen Begriffsbezeichnungen, die mittlerweile existieren (Anbieter, nachgelagerter Anbieter, Hersteller, Benutzer, Betreiber usw.). Unter welcher Rollenbezeichnung Ihr Unternehmen je nach Rechtsrahmen fällt (KI-VO und/oder MDR, IVDR), stellt jedoch keine Wortspielerei dar, sondern entscheidet letztlich über den Umfang Ihrer Pflichten. Die folgende Übersicht mit verschiedenen Begriffsdefinitionen zeigt auf einen Blick, welche Rolle auf Sie zutrifft.
KI-Verordnung der EU (KI-VO 2024/1689) | KI-Verordnung der EU (KI-VO 2024/1689) | Medizinprodukte- & In-vitro-Diagnostika-Verordnung der EU (MDR 2017/745 und IVDR 2017/746) |
Anbieter | nachgelagerte Anbieter | Hersteller |
Unter Anbieter versteht man „eine natürliche oder juristische Person…, die ein KI-System oder ein KI-Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt und es unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringt…“ KI-VO (Art. 3) | Ein nachgelagerter Anbieter ist ein Anbieter, der ein KI-System mit integriertem KI-Modell auf den Markt bringt – unabhängig davon, ob das Modell aus dem eigenen Haus stammt oder von einem Dritten vertraglich bezogen wurde.
KI-VO (Art. 3) | Als Hersteller gilt, wer ein Medizinprodukt bzw. IVD herstellt oder herstellen/neu aufbereiten lässt und es unter eigenem Namen bzw. eigener Marke in Verkehr bringt. (Hierunter können auch KI-basierte Software-Produkte fallen.)
MDR (Art. 2), IVDR (Art. 2) |
Die KI-Verordnung regelt KI-Systeme und -Modelle. MDR und IVDR regeln Medizinprodukte bzw. In-vitro-Diagnostika; KI wird dort mitabgedeckt, soweit sie Teil eines (Software-)Medizinprodukts ist. Wie Unternehmen, die von beiden Rechtsakten betroffen sind (KI-VO und MDR/IVDR), diese parallel und abgestimmt umgesetzt bekommen, können Sie in diesem Artikel hier nachlesen: AI Act vs. MDR/IVDR: Handlungsempfehlung (Teil 2)
Welche Unterschiede ergeben sich nun in Bezug auf die Rollenbezeichnungen? Zunächst, der bei Life-Science-Unternehmen geläufige MDR/IVDR-Begriff „Hersteller“ kommt in der KI-Verordnung nicht vor. Stattdessen wird der weitergefasste Begriff Anbieter verwendet, welchen wir ebenfalls im Artikel nutzen.
Des Weiteren ist zu berücksichtigen, dass ein nachgelagerter Anbieter leicht zum Anbieter werden kann, wenn er am integrierten KI-Modell oder -System eine „wesentliche Veränderung“ (KI-VO, Art. 3 Nr. 23) vornimmt. Darunter ist jegliche post-market-Modifikation gemeint, die die Funktionsweise spürbar verändert oder das System für einen anderen Einsatzzweck bestimmt (KI-VO, Art. 3 Nr. 23). Wir empfehlen daher, als nachgelagerte Anbieter sicherheitshalber auch die Passagen durchzulesen, die an die Anbieter gerichtet sind.
2. GenAI ab 02.08.2025: Klarer Rahmen für Life-Science-KMU
Nachdem Ihre Rolle im Sinne der KI-Verordnung bestimmt ist, stellt sich nun die Frage, welche Regelungen konkret zur Anwendung kommen. Für Unternehmen, die der Kategorie „Anbieter“ zuzuordnen sind, gehören dazu u.a. die GPAI-Pflichten, die erst kürzlich am 02. August 2025 wirksam geworden sind (siehe AI-Act-Update für Life-Science-KMU – Teil 1).
GPAI für Anbieter verständlich erklärt: In der KI-VO nutzt die EU den Begriff GPAI für Modelle mit allgemeinem Verwendungszweck (General-Purpose AI oder GPAI, siehe Art. 3 Nr. 63, KI-VO); dazu gibt es offizielle FAQs und Leitlinien. In der Technikpraxis sprechen Teams dagegen häufiger von Foundation Models, LLMs oder GenAI. Die Begriffe überlappen, sind aber nicht deckungsgleich: GPAI ist der Regulierungs-Oberbegriff, Foundation Models eine zentrale Untermenge. In der Praxis empfehlen wir: Nutzen Sie „GPAI“, sobald es um Pflichten, Vorlagen oder Nachweise geht – so bleibt die Zuordnung eindeutig. |
Trifft die Definition eines GPAI-Anbieters gemäß der KI-VO auf Sie zu, dann gilt es ab sofort folgende Dokumente zu erstellen und offenzulegen:
standardisierte Informationspakete an nachgelagerte Anbieter (Anhang XII),
eine öffentliche Zusammenfassung der Trainingsdaten (Art. 53 Abs. 1 d),
eine technische Dokumentation (Art. 53 Abs. 1 a) sowie eine
Urheberrechts-Policy (Art. 53 Abs. 1 c).
GPAI Code of Practice als Handlungsempfehlung: Wir empfehlen sich zunächst mit dem General-Purpose AI Code of Practice der EU vertraut zu machen, bevor betroffene Unternehmen damit beginnen, die vier o.g. Punkte umzusetzen. Dieser bietet Orientierung für Transparenz, Urheberrecht sowie Safety & Security und dient als referenzierbarer Rahmen gegenüber Stakeholdern und Behörden. Das reduziert Diskussionen und erleichtert die Priorisierung der nächsten Schritte: EU-Praxisleitfaden zu GPAI-Modellen |
Nachgelagerte GPAI-Anbieter haben den Vorteil, dass sie die vier o.g. Punkte (technische Dokumentation, Trainingsdaten-Zusammenfassung etc.) nicht erfüllen müssen. Es besteht keine Pflicht, etwa die technische Dokumentation des Anbieters anzufordern. Es besteht auch kein Einsichtsrecht; dieses haben nur die zuständigen Behörden. Einsehen können Sie das Standard-Informationspaket, das der Anbieter bereitstellt. Allerdings muss man hier aufpassen: Nehmen Sie eine wesentliche Änderung am integrierten GPAI-Modell vor, gelten Sie als Anbieter inklusive aller oben beschriebenen Verpflichtungen.
Was GPAI-Anbieter betrifft, so möchten wir auf die Sorge um ihre Geschäftsgeheimnisse angesichts der offenzulegenden Nachweise an dieser Stelle eingehen:
Die technische Dokumentation (Anhang XI) wird nur zuständigen Behörden auf Anfrage vorgelegt;
Die Urheberrechts-Policy ist einzurichten, aber nicht zu veröffentlichen.
Öffentlich zugänglich ist allein die Trainingsdaten-Zusammenfassung, womit aber nicht der vollständige Datensatz gemeint ist.
Nachgelagerte Anbieter erhalten lediglich das Integrations-Informationspaket nach Anhang XII.
Nachstehend finden Sie einige praxistaugliche Wege, die zeigen, wie sich die o.g. Anforderungen 1 bis 4 effizient und überschaubar umsetzen lassen:
Standardisierte Informationspakete für nachgelagerte Anbieter (Anhang XII)
Unter diesem Punkt werden standardisierte Informationsdossiers verstanden, die GPAI-Anbieter verpflichtend bereitstellen, damit nachgelagerte Anbieter in der Lage dazu sind, die Fähigkeiten und Grenzen des Modells (Model Overview , Intended Use, Out-of-Scope Use, How to use, Evaluation, Risks & Limitations usw.) zu verstehen und ihre eigenen Pflichten als Drittanbieter erfüllen zu können. Ein konkretes Beispiel eines standardisierten Informationspaketes von der Firma Aleph Alpha finden Sie hier: Accessing the model card | Aleph Alpha Docs
Praxis-Tipp: Erstellen Sie ein einziges, versionsgebundenes Model-Factsheet (Annex-XII-Inhalte) und verlinken es überall (Website, Verträge, Partnerportal). Änderungen nur als Release-Notes veröffentlichen. So vermeiden Sie Mehrfachdokumentation und Ad-hoc-PDFs. |
Öffentliche Zusammenfassung der Trainingsdaten (Art. 53(1)(d))
Diese Zusammenfassung soll einen öffentlich zugänglichen Überblick darüber geben, auf Basis welcher Datenarten und Quellen ein GPAI-Modell überwiegend trainiert wurde. Ziel dabei ist es, nachvollziehbar zu machen, welche Arten von Inhalten (z. B. Text, Bilder, Code) und welche Quellenkategorien (öffentlich gecrawlte Webdaten und kuratierte/strukturierte Datensätze) verwendet wurden – ohne die eigentlichen Rohdaten offenzulegen.
Ein konkretes Beispiel für eine solche Zusammenfassung von Trainingsdaten finden Sie auf folgender Seite unter dem Punkt Training Details: Aleph-Alpha/Pharia-1-LLM-7B-control · Hugging Face
Praxis-Tipp: Nutzen Sie die offizielle Vorlage der Europäischen Union (EU Template) für die öffentliche Trainingsdaten-Zusammenfassung und passen Sie gegebenenfalls an. Die Vorlage wurde bereits veröffentlicht und kann hier heruntergeladen werden: EU-Template für die öffentliche Trainingsdaten-Zusammenfassung |
Technische Dokumentation (Art. 53(1)(a))
Praxis-Tipp: Erstellen Sie eine Zusammenfassung der technischen Dokumentation in Form eines Steckbriefs – inklusive Zweck, Grenzen, 2–3 Beispielen, Ansprechperson und den Änderungen seit der letzten Fassung. Ziel ist ein kurzlesbares Dokument: So kann die Führung das Wesentliche in einer Minute erfassen und eine Entscheidung treffen; die weiterführenden Details stehen separat zur Verfügung. |
Urheberrechts-Policy (Art. 53(1)(c))
Für Anbieter ist an dieser Stelle wenig neu: Urheberrechtliche Grundpflichten bestehen bereits (Lawful Access, Beachtung von TDM-Opt-Outs usw.). Neu und strenger ist, dass die KI-Verordnung einen formalisierten, auditfähigen Policy- und Technikpfad vorschreibt.
Praxis-Tipp: Führen Sie eine einfache „Erlaubnis-vor-Nutzung“-Regel ein: Trainieren Sie nur, wenn Quelle und Nutzungsrecht eindeutig sind; im Zweifel nicht verwenden oder Lizenz einholen. Eine verantwortliche Person prüft dies per Kurz-Checkliste (Quelle, Erlaubnis, Datum) und dokumentiert es. So wird Ihre Policy gelebte Praxis. |
Inwiefern hängen GPAI-Modelle mit KI-Systemen zusammen und was bedeutet das aus KI-VO-Sicht für Life-Science-Anbieter? Auf der Modellebene stehen GPAI-Modelle mit breitem Einsatzspektrum: Sie sind Basis vieler Lösungen und unterliegen eigenen Pflichten, etwa zur technischen Dokumentation und zur Zusammenfassung der Trainingsinhalte für die Öffentlichkeit. Wird ein solches Grundlagemodell als KI-System bereitgestellt oder tatsächlich betrieben, kommen die systemspezifischen Vorgaben des KI-VO hinzu. Interagiert Ihr Produkt direkt mit Menschen oder erzeugt es synthetische Inhalte, gelten die Transparenzanforderungen des Art. 50 – von Hinweisen auf die KI-Interaktion bis zur Kennzeichnung generierter Outputs. Maßgeblich ist zudem die Risikoklasse des Systems (unzulässig / hoch / begrenzt / minimal), denn sie steuert Umfang und Tiefe der Pflichten. Speziell im Life-Science-Umfeld fallen Medizinprodukte, die Software enthalten, meist unter Klasse 2a oder höher und werden unter der KIV damit als Hochrisiko eingestuft; das Zusammenspiel mit MDR/IVDR ist entsprechend beschrieben (siehe MDCG-Leitlinie). Wer Modell- und Systemperspektive zusammen denkt, reduziert redundante Arbeitsschritte und schafft klare, adressatengerechte Nachweise für Partner und Aufsichten. |
3. AI-Act-Begriffsdoppelungen? Behalten Sie den Durchblick!
Sie wissen jetzt, was laut AI-Act-Terminologie mit Anbieter, nachgelagerter Anbieter und GPAI genau gemeint ist und welche Pflichten damit für Sie einhergehen. Nun geht es darum, auf mögliche Begriffsdoppelungen zu achten. So können bestimmte Begriffe, die im AI Act mehrfach verwendet werden, je nach Artikel unterschiedliche Bedeutungen haben. Nachfolgend zwei konkrete Beispiele und wie sich so manche begriffliche Doppelung als Doppelarbeit vermeiden lässt:
Beispiel 1:
GPAI-Transparenzpflichten auf Modellebene – Nachweispflichten für GPAI-Anbieter (KI-VO, Art. 53) |
≠
KI-Transparenzpflichten auf Systemebene – Nutzerbezogene Kennzeichnungen bei Interaktionen und synthetischen Inhalten (KI-VO, Art. 50) |
Beispiel 2:
Technische Dokumentation bei GPAI-Modelle (KI-VO, Art. 53) |
≠
technische Dokumentation bei Hochrisiko-KI-Systemen (KI-VO, Art. 11) |
Falls bei einem Anbieter beides zutreffen sollte, also GPAI-Modell in Kombination mit einem Hochrisiko-KI-System, wäre er u.a. dazu verpflichtet, zwei entsprechende Dokumentationen zu erstellen. Unsere Empfehlung: Kumulation statt Doppelung.
Die GPAI-Unterlagen (z. B. Modellkarten/Evaluationshinweise, Trainingsdaten-Zusammenfassung, Copyright-Policy) können in der Anhang-IV-Systemakte als Evidenz referenziert und integriert werden. Trotzdem bleiben es zwei unterschiedliche Bereiche: (a) Modell-Transparenz (Art. 53) und (b) System-Konformität (Anhang IV).
4. Menschliche Aufsicht, KI-Beauftragte und KI-Kompetenzen
Wir empfehlen grundsätzlich, die Entwicklung und Nutzung eines KI-Modells – und insbesondere die eines Hochrisiko-KI-Systems – von einem Menschen kontrollieren und beaufsichtigen zu lassen. Dieses „Human-in-the-loop“ als Best-Practice Prinzip ist zwar nicht immer rechtlich vorgeschrieben, aber in der Praxis dennoch sinnvoll und zweckmäßig.
Menschliche Aufsicht
Von der Best-Practice Empfehlung zu den gesetzlichen Anforderungen: Anbieter sind verpflichtet, ihr KI-System so zu konzipieren, dass Betreiber eine vorgesehene „menschliche Aufsicht“ wirksam umsetzen können. „Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass sie … von natürlichen Personen wirksam beaufsichtigt werden können“ (Art. 14 der KI-Verordnung). Dabei haben Anbieter folgendes zu beachten:
Designpflicht (Art. 14): Anbieter müssen Aufsichtsmechanismen einbauen oder Anweisungen vorgeben, damit Betreiber die Aufsicht wirksam umsetzen können.
Eigenbetrieb (Art. 26): Nutzen Anbieter ihr System intern für den vorgesehenen Zweck, gelten sie selbst als Betreiber und müssen die Aufsicht ausdrücklich geeigneten Personen zuweisen.
Tests unter Realbedingungen (Art. 60): Normale Entwicklungs-/Labortests vor Inbetriebnahme machen Anbieter noch nicht zum Betreiber; hiervon unberührt sind Tests unter Realbedingungen – sie sind genehmigungspflichtig, zeitlich befristet und müssen effektiv überwacht werden.
KI-Beauftragter
Des Weiteren empfehlen wir Anbieter-Unternehmen eine Person oder ein Gremium zu ernennen, welches die Entwicklung und das Inverkehrbringen des KI-basierten Produktes koordiniert und mitverantwortet. Dies kann ein KI-Beauftragter oder KI-Koordinator sein.
Auf diese Weise kann sichergestellt werden, dass KI-Initiativen wirksam, sicher sowie rechts- und wertekonform umgesetzt werden – und das über verschiedene Funktionen hinweg (Produkt, Tech, Recht, Datenschutz, Sicherheit, Risiko, Kommunikation, Vertrieb, Ops usw.).
Eine solche übergeordnete Instanz, die als koordinierende Schnittstelle zwischen verschiedenen Abteilungen im Unternehmen fungiert, sollte auch in der Lage dazu sein, extern mit entsprechenden Behörden zu interagieren (siehe Abb. unten). Dies beinhaltet beispielsweise:
das KI-Büro bei GPAI-Bezug
eine benannte Stelle (Konformitätsbewertung)
die Marktüberwachungsbehörde (z. B. Vorfälle, Auskunft, Kontrollen)

Klicken Sie auf die einzelnen Begriffe, um mehr darüber zu erfahren:
Marktüberwachungsbehörde
In Deutschland übernimmt die Bundesnetzagentur sowohl die Rolle der notifizierenden Behörde als auch die der zentralen KI-Marktüberwachung. Sie ist ein primärer Ansprechpartner für viele Unternehmen.
Notifizierende Behörde (Notifying Body)
Die Bundesnetzagentur ist als notifizierende Stelle in Deutschland vorgesehen. Sie benennt und beaufsichtigt die Akkreditierungsstellen ("benannte Stellen") auf Landesebene. Für Unternehmen stellt sie in der Regel keinen direkter Kontaktpunkt dar.
Benannte Stellen (Notified Bodies)
Anbieter-Unternehmen eines (potenziellen) Hochrisiko-KI-Systems, die eine Konformitätsbewertung benötigen, stehen in direktem Kontakt mit einer solchen Stelle.
KI-Büro (AI Office)
Koordination & Durchsetzung auf EU-Ebene; Aufsicht über GPAI-Modelle und Leitlinien. Kontakt für Unternehmen primär bei GPAI-Themen oder grenzübergreifender Relevanz.
KI-Gremium (European AI Board), Beratungsforum (Advisory Forum) und unabhängige Expertengruppe (AI Scientific Panel)
Koordinieren und harmonisieren die Anwendung der KI-VO mit den Mitgliedstaaten (indirekter Bezug für Unternehmen).
KI-Kompetenzaufbau
Zu guter Letzt möchten wir noch auf das Thema KI-Kompetenzaufbau hinweisen: Als Anbieter, die selbst KI-Systeme entwickeln, verfügen Sie über tiefes technisches Know-how; Trainings sollten daher insbesondere ethische Fragestellungen und Bias-Risiken und deren technische Umsetzung behandeln.
Vermeiden Sie also das Gießkannenprinzip, sondern richten Sie Qualifizierungen an den konkreten Anforderungen der jeweiligen Bereiche aus – im Sinne der KI-Verordnung (siehe Auszug unten) mit rollenbezogenen Kenntnissen und Verantwortlichkeiten:
„Die Anbieter und Betreiber von KI-Systemen ergreifen Maßnahmen, um … sicherzustellen, dass ihr Personal... über ein ausreichendes Maß an KI-Kompetenz verfügen, wobei ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen…, zu berücksichtigen sind.“ (Art. 4, KI-VO)
Mehr zum Thema KI-Kompetenzaufbau finden sie hier: Aktuelles zum AI Act - Worauf KMU jetzt achten sollten
5. Compliance by Design - Vorausdenken statt Nachbessern
Die KI-Verordnung der EU wird oftmals kontrovers diskutiert. Doch wer die neuen Vorgaben nicht als Hürde, sondern als Chance begreift, kann daraus einen echten Wettbewerbsvorteil machen.
Wir haben gezeigt, welche Rollen und Pflichten die Verordnung für „Anbieter“ und „nachgelagerte Anbieter“ vorsieht und warum Transparenz und menschliche Aufsicht zentrale Vertrauensanker sind. Sie schaffen Sicherheit gegenüber Behörden und Partnern und stärken das Vertrauen von Kundinnen und Kunden (ein vertiefender Beitrag zur Rolle des „Betreibers“ folgt übrigens am TT. November).
Unsere Empfehlungen folgen dem Prinzip Compliance by Design: rechtliche Anforderungen von Anfang an mitzudenken, statt im Nachgang zu prüfen. Wer aus MDR oder IVDR das Quality by Design-Prinzip kennt, weiß: Frühzeitige Integration spart Aufwand und vermeidet Nachbesserungen. Dieser Ansatz wirkt jedoch nur, wenn er Teil einer übergeordneten Planung ist. Denn Compliance ist kein isoliertes Projekt, sondern Bestandteil der Unternehmensstrategie.
Darum braucht jedes KI-Vorhaben eine klare KI-Strategie, die technische, rechtliche und ethische Aspekte miteinander verbindet. Sie schafft Orientierung für Entwicklung, Lizenzierung und Management und verhindert, dass KI-Projekte schon an der Verordnung scheitern. Sie sorgt dafür, dass regulatorische Vorgaben, fachliche Machbarkeit und unternehmerische Ziele von Beginn an ineinandergreifen und gemeinsam Synergien entfalten. Wenn Sie nicht schon eine KI-Strategie haben, dann empfehlen wir sich auf dieser Seite hier zu informieren: KI-Beratung für Life-Science-KMU
Wenn Ihnen dieser Artikel gefallen hat, freuen wir uns über Ihr Feedback in den Kommentaren. Teilen Sie Ihre Gedanken und lassen Sie uns wissen, wie wir Sie noch besser unterstützen können. Verpassen Sie außerdem nicht den letzten Teil der drei-teiligen "AI-Act-Update"-Serie, der die Rolle des Betreibers in den Fokus setzt. Dieser Artikel wird voraussichtlich am 06. November erscheinen.
Nützliche Quellen:
EU-Leitlinien für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck (pdf / 557 KB)
Foto (abgeändert) von Brian Penny, Pixabay
Disclaimer: Alle Angaben erfolgen nach bestem Wissen und Gewissen, jedoch ohne Gewähr für Vollständigkeit, Richtigkeit und Aktualität.
Das könnte Sie auch interessieren:


Kommentare