- Was ist der AI Act und wer ist davon betroffen?
- Umsetzung der Anforderungen in technische Standards
- Fragen und Antworten (FAQ) zum aktuellen Normungsprozess
AI Act: Normung als Schlüssel zur KI-Regulierung
Was ist der AI Act?
Der AI Act ist eine EU-Verordnung, die einen einheitlichen Rechtsrahmen für die Entwicklung, den Einsatz und die Nutzung von KI-Systemen schafft. Er wurde am 21. Mai 2024 verabschiedet und ist seit 1. August 2024 in Kraft, mit gestaffelten Übergangsfristen bis 2027.
Risikobasierter Ansatz als Herzstück der KI-Regulierung
Der risikobasierte Ansatz des EU AI Act ist das Herzstück der Regulierung und sorgt dafür, dass KI-Systeme je nach Gefährdungspotenzial unterschiedlich streng reguliert werden. Ziel ist ein ausgewogenes Verhältnis zwischen Innovation und Schutz von Grundrechten. Hier sind die vier Risikoklassen im Detail:
1. Minimales Risiko
Hierzu gehören beispielsweise Spamfilter, Rechtschreibkorrektur und KI-Schreibassistenten. Deren Regulierung bedarf keiner besonderen Anforderungen, da diese Systeme kaum Einfluss auf Grundrechte oder Sicherheit haben.
2. Begrenztes Risiko
Hierzu gehören beispielsweise Chatbots, KI-generierte Inhalte, einfache Empfehlungssysteme. Verpflichtend ist eine transparente Kenntlichmachung, sodass Nutzer erkennen können, dass sie mit einer KI interagieren. Manipulative oder irreführende Funktionen sind nicht erlaubt.
3. Hohes Risiko
Hierzu gehören KI-Anwendungen beispielsweise aus den Bereichen Medizin, Personalwesen, Strafverfolgung und KRITIS. Verpflichtend sind hierfür ein Risikomanagementsystem, eine technische Dokumentation, menschliche Aufsicht und eine hohe Datenqualität sowie Robustheit, da diese Systeme direkt in Grundrechte eingreifen können.
4. Unannehmbares Risiko (und damit verboten)
Hierzu gehören beispielsweise Social Scoring (wie in China), Echtzeit-Gesichtserkennung im öffentlichen Raum, Emotionserkennung am Arbeitsplatz oder in Schule und manipulative KI, die den freien Willen untergräbt. Solche Anwendungen sind nach Artikel 5 des AI Act verboten, mit dem Ziel, die Menschenwürde, Demokratie und Rechtsstaatlichkeit zu schützen.
Der AI Act versteht Risiko als Kombination aus der Wahrscheinlichkeit eines Schadens und der Schwere des Schadens. Es werden dabei sowohl materielle als auch immaterielle Schäden berücksichtigt, also beispielsweise physische, psychische, gesellschaftliche oder wirtschaftliche Auswirkungen.
Der AI Act schafft Orientierung für alle Beteiligten
Der EU AI Act betrifft eine breite Gruppe von Akteuren – nicht nur Entwickler von KI-Systemen, sondern auch deren Nutzer.
Betroffen sind KI-Anbieter, also Unternehmen, Forschungsinstitute oder Behörden, die KI-Systeme entwickeln, in Verkehr bringen oder bereitstellen, z. B. über Plattformen oder als Dienstleistung. Betroffen sind auch KI-Betreiber, also Organisationen, die KI-Systeme im eigenen Betrieb einsetzen, z. B in Form von Chatbots, HR-Software oder Analyse-Tools.
Aber auch Mitarbeitende können betroffen sein, wenn auch nur indirekt, da sie mit KI-Systemen arbeiten und deren korrekte Nutzung sicherstellen müssen. Seit Februar 2025 gilt laut Artikel 4 des AI Act deshalb eine Pflicht zur Sicherstellung ausreichender KI-Kompetenz bei Mitarbeitenden.
Außerdem vom AI Act betroffen: Behörden und Aufsichtsstellen, die für die Überwachung und Durchsetzung der Vorschriften zuständig sind. Und natürlich die Nutzer – die vom Schutz der Grundrechte, Sicherheit und Transparenz profitieren.
Mit unserem DKE Newsletter sind Sie immer top informiert! Monatlich ...
- fassen wir die wichtigsten Entwicklungen in der Normung kurz zusammen
- berichten wir über aktuelle Arbeitsergebnisse, Publikationen und Entwürfe
- informieren wir Sie bereits frühzeitig über zukünftige Veranstaltungen
Umsetzen rechtlicher Anforderungen in technische Standards
Der AI Act legt rechtliche Anforderungen fest – etwa zu Sicherheit, Transparenz, Datenqualität oder menschlicher Kontrolle. Diese Anforderungen sind technisch häufig abstrakt. Die Normung übersetzt die rechtlichen Anforderungen in konkrete technische Standards, die Unternehmen, Behörden und Entwickler praktisch anwenden können.
Für die Erarbeitung der Normen beauftragt die EU-Kommission die europäischen Normungsorganisationen CEN und CENELEC. Diese arbeiten mit nationalen Organisationen wie der DKE und dem DIN sowie AFNOR (Frankreich) und UNI (Italien) zusammen. Auch Industrie, Forschung, Zivilgesellschaft und Behörden sind beteiligt.
Diese „harmonisierten Europäischen Normen“ können in der gesamten EU einheitlich umgesetzt werden und helfen dabei, Rechtskonformität für Produkte und Dienstleistungen nachzuweisen.
Die Normung ist nicht allerdings nicht abgeschlossen, sondern entwickelt sich parallel zur Technologie weiter. Neue KI-Anwendungen, wie Generative KI oder autonome Systeme, erfordern laufend neue Standards.
Technik trifft auf Verantwortung: Schnittstellen von KI und Normung
Die Verbindung zwischen Künstlicher Intelligenz und Normung zeigt sich bereits heute in zahlreichen praxisnahen Anwendungsfeldern – von der Industrie über den Schienenverkehr bis hin zur Energiewirtschaft. KI-Systeme übernehmen Aufgaben wie vorausschauende Wartung, autonome Steuerung oder datenbasierte Optimierung, die ein hohes Maß an Sicherheit und Verlässlichkeit erfordern.
Normen schaffen die dafür erforderliche Grundlage, indem sie technische Anforderungen definieren, Risiken systematisch adressieren und die Qualität von KI-Anwendungen sicherstellen. Besonders in sicherheitskritischen Bereichen, etwa im Safety Engineering oder bei der Deepfake-Erkennung, ermöglichen sie eine nachvollziehbare und vertrauenswürdige Nutzung von KI. Gleichzeitig tragen Normen wesentlich dazu bei, ethische Prinzipien wie Fairness, Transparenz und Nachhaltigkeit in die technische Entwicklung zu integrieren – und machen damit Verantwortung messbar und gestaltbar.
Beispiele:
Europäischer AI Act: Fragen und Antworten (FAQ) zum Normungsprozess
Redaktioneller Hinweis:
Der vorliegende Artikel wurde mit KI erstellt, fachlich geprüft und redaktionell bearbeitet.