3D Illustration Gehirn Computer
fotomek / stock.adobe.com
12.01.2021 Kurzinformation

Künstliche Intelligenz – kann ich dir vertrauen? Erster KI-Standard macht die Qualität prüfbar!

Der erste KI-Standard kommt aus Deutschland – in Form der VDE-AR-E 2842-61. Verantwortlich dafür sind die Experten im Normungsgremium DKE/AK 801.0.8. Dr. Henrik Putzer und Dr. Harald Rueß engagieren sich seit vielen Jahren in der Normung und haben die VDE Anwendungsregel maßgeblich mitentwickelt. Im Gespräch geben sie einen spannenden Einblick im Hinblick auf konkrete Umsetzungsmöglichkeiten und die weitere Entwicklung der VDE-AR-E 2842-61.

Mit Normen gegen Mythen: Künstliche Intelligenz nachweislich sicher zu machen, ist Voraussetzung für das Vertrauen von Industrie und Gesellschaft in diese Technologie.

Mit VDE-AR-E 2842-61 ist ein erstes detailliertes Framework für den „Entwurf und Vertrauenswürdigkeit von autonom/kognitiven Systemen“ erarbeitet worden. Vier Teile sind bereits fertiggestellt; die letzten beiden Teile sind für Q1 2021 geplant.

Die Veröffentlichung ebnet so den internationalen Weg für eine strukturierte sowie nachweislich sichere Entwicklung von KI-basierten Systemen und stellt einen Referenz-Standard zur Verfügung, der in einem KI-Prüfsiegel münden kann.

Kontakt
Johannes Koch
Zuständiges Gremium

Künstliche Intelligenz: Anspruch, Wirklichkeit und Mythen einer Technologie

Dr. Henrik Putzer und Dr. Harald Rueß vom bayerischen Forschungsinstitut fortiss engagieren sich bereits seit vielen Jahren als Experten in der Normung und haben die VDE Anwendungsregel im Gremium DKE/AK 801.0.8 maßgeblich mitentwickelt.

Ein Gespräch über …

... die Wahrnehmung von Künstlicher Intelligenz

Bei dem Thema KI gibt es in der Öffentlichkeit große Berührungsängste. Sehen Sie die Sorgen vor einer Übermacht der Maschinen als berechtigt an?

Putzer: Mit der aktuell verfügbaren Technologie sind diese Sorgen unbegründet. KI ist eher eine neue Art des Engineerings und aus dem Grund heraus nichts, was sich selbst Ziele setzen kann oder Dinge tut, die man nicht vorgesehen hat. KI findet vielleicht neue Lösungswege, aber keine neuen Aufgaben. Die Angst vor einer Übernahme der Weltherrschaft ist unbegründet. Sorgen muss man sich machen, wenn Leute KI ohne nötiges Grundverständnis nutzen oder böse Absichten dahinterstecken.

... fehlende Qualitätsstandards in der KI-Technologie

Sprechen Sie damit Ihre Sorge um die fehlenden Qualitätsstandards in der KI-Technologie an?

Putzer: Ja, die Sorge um die Qualität hat genau genommen drei Dimensionen. Erstens: Der Entwickler muss handwerklich gut und anwenderfreundlich entwickeln. Zweitens: Der Hersteller muss klar spezifizieren, was die Grenzen dieser KI sind. Drittens: Der Nutzer muss die KI dann entsprechend dieser Vorgaben einsetzen. Beim ersten Punkt – „Wie entwickle ich ein gutes Produkt?“ – greifen die Qualitätsstandards. Beim zweiten Punkt – „Wie beschreibe ich die Möglichkeiten?“ – ebenfalls. Der dritte Punkt – „Für welche Zwecke nutze ich es?“ – ist eher eine ethische Frage.

... die Frage, worüber wir bei KI eigentlich sprechen

Wovon sprechen wir genau, wenn wir von KI oder AI reden? Es entsteht oft der Eindruck, dass viele Personen von völlig verschiedenen Dingen reden.

Rueß: Durch die fortschreitende Digitalisierung haben wir Unmengen an Daten zur Verfügung – zumindest potenziell. Und diese Daten sollten wir auch nutzen. Genau da kommen KI-Technologien ins Spiel: Es hat sich herausgestellt, dass Verfahren des maschinellen Lernens, insbesondere Deep-Learning-Ansätze, bei der Verarbeitung und dem Erkennen bestimmter statistischer Zusammenhänge aus diesen Daten heraus sehr gut skalieren können. Und diese Zusammenhänge können wir uns zu Nutze machen, um Prozesse und Systeme zu optimieren und gegebenenfalls auch bestimmte Entscheidungen zu unterstützen.

Putzer: Die Art der Zusammenhänge spielt eine zentrale Rolle: KI findet und arbeitet mit Korrelationen (aus den Daten). Eine dahinter liegende Kausalität bleibt der aktuell verfügbaren KI verschlossen. Kausalität auf Basis von Symbol-Grounding, einem echten Verständnis, ist noch dem Menschen vorbehalten. Diese Limitierung muss dem Entwickler, Hersteller und Nutzer klar sein, sonst kann es gefährlich werden.


Künstliche Intelligenz hat das Potenzial, unsere Welt zu verändern.

Schon heute wird Künstliche Intelligenz beispielsweise in der Industrie 4.0, beim autonomen Fahren, in Gesundheitsanwendungen und vielen weiteren Bereichen eingesetzt. Komplexe Algorithmen analysieren riesige Datensätze, leiten daraus Handlungsempfehlungen ab und agieren vollkommen autonom. Selbstlernende Systeme sind die Zukunft und werden Teil unseres Alltags.

Aber wer steuert eigentlich die Künstliche Intelligenz?

Die DKE bietet Expertinnen und Experten eine Plattform, um branchen- und länderübergreifend Normen und Standards zu erarbeiten – damit ethische Regeln auch für KI gelten und KI unsere Gesellschaft so voranbringt.

Wir gestalten und steuern die Künstliche Intelligenz!


... das wirtschaftliche Potenzial von KI

Wir sehen, wie viel Geld, Forschung und Mühen in KI-Technologien investiert werden. Aber die Anwendungsbereiche sind – vom autonomen Fahren einmal abgesehen – vielen noch unklar. Wo liegt das wirtschaftliche Potenzial von KI?

Rueß: Wir können mithilfe einer KI-basierten Auswertung von Daten ineffiziente oder fehlerhafte Prozesse optimieren. Das passiert derzeit beispielsweise bei der prädiktiven Wartung von Maschinen (Predictive Maintenance), bei denen KI dazu eingesetzt wird, mögliche Störungen vorherzusagen und darüber hinaus auch Szenarien für eine möglichst effiziente Reparatur vorzuschlagen.

Noch spannender wird es, wenn wir KI in einer neuen Generation von Produkten und Diensten auf Basis zunehmend autonom agierender Maschinen und Steuerungen einsetzen. Hierbei geht es nicht „nur“ um die Optimierung von Prozessen und Systemen.

KI-Technologie hat insgesamt das Potenzial – um es mit den Worten des Ökonomen Joseph Schumpeter zu formulieren – die neue, umwälzende Technik zu sein, mit tiefgreifenden Veränderungen in der Wirtschaft und als technologische Basis eines langfristigen Wirtschaftsaufschwungs.

... den Anwendungsbereich von KI

In welchen Branchen ist der Einsatz von KI-basierten Systemen überhaupt sinnvoll?

Rueß: Überall wo Daten anfallen. Das kann von der Entwicklung, Produktion und Logistik bis hin zum Kundenmanagement sein. Deshalb gibt es diesen aktuellen Hype um KI: weil sie so universell anwendbar ist und große Datenmengen so gut skalieren kann.

Ein wichtiges Anwendungsgebiet ist die Unterstützung bei Entscheidungen – KI als Assistent. Die KI dient dazu, die Datenlage verständlich aufzubereiten, als Grundlage möglichst evidenzbasierter Entscheidungen. Genau deshalb muss KI aber auch interaktionsfähig und transparent sein. Sie muss außerdem eine Erklärungskomponente bieten können. Außerdem – und das ist eigentlich unser Hauptthema – wird KI zunehmend auch in sicherheitskritischen Systemen eingesetzt. Beispiele sind autonomes Fahren, Medizintechnik, Steuerung von Turbinen und auch die Steuerung von intelligenten Stromnetzen. Wenn KI-Technologie hier aus dem Ruder läuft, kann sie großen Schaden anrichten. Und die Frage ist: Wie können wir das verhindern?

Putzer: Im Moment kann die KI nichts allein. Sie ist nur eine Art Automation von Teilaufgaben. Wir sind letzten Endes darauf angewiesen, dass so entwickelt wird, dass Mensch plus KI eine bessere Performance erreichen als der Mensch allein. Eine losgelöste KI ist mit den aktuellen Ansätzen sinnfrei.

... die Entwicklung eines KI-Standards

Wie kann man für KI einen Standard schaffen, der hilft, ein Verständnis für diese Vorgänge zu ermöglichen?

Rueß: In den letzten Jahrzehnten haben Forscher*innen und Entwickler*innen, auch wir an unserem Forschungsinstitut, viel Erfahrungswissen zur Entwicklung KI-basierter Systeme gesammelt. Dabei hat sich ein einheitliches Vorgehensmodell vom Datensammeln über das Trainieren solcher Netze bis zur Analyse herauskristallisiert. Dieser Erfahrungsschatz wurde von uns in die aktuelle VDE-AR-E 2842-61 gegossen.

Diese Regeln wurden nun in insgesamt sechs Bänden mit jeweils ca. 60 Seiten niedergeschrieben. Was sind die wichtigsten Maßnahmen, die für diesen Prozess festgelegt worden sind?

Putzer: Auch Elektronik war einmal eine neue Technologie. Und auch da haben sich die Leute gefragt: Wann geht so ein elektrisches Ding denn mal kaputt? Wie wahrscheinlich ist die korrekte Funktion? Dadurch sind wir zu Maßen wie Ausfallraten (aus zufälligen Fehlern) gekommen – entstanden über Jahrzehnte und durch viele Versuche und Erfahrungen.

Daraufhin folgte Software und wir haben gemerkt: Ausfallraten sind hier nicht der richtige Ansatz. Wir müssen so entwickeln, dass keine Fehler enthalten sind. Software an sich kann nicht kaputt gehen oder altern. Darum wurden entsprechende systematische Entwurfsansätze entwickelt, um die systematischen Fehler zu vermeiden.

Die KI stellt uns jetzt wieder vor eine neue Kategorie von Fehlerarten neben den zufälligen (hauptsächlich Hardware) und den systematischen Fehlern. Wir müssen Maßnahmen entwickeln, um diese zu reduzieren. Es gibt eine Sammlung von Best Practices, die man festgehalten hat, wann und wie KI-Anwendungen funktionieren. Wir begannen, diese Informationen zu sammeln und strukturiert herauszuarbeiten, welche Anforderungen überhaupt an so ein KI-Element, als Baustein eines Ganzen, zu stellen sind und wie diese Anforderungen implementiert und nachgewiesen werden. Letztlich haben wir einen Ansatz gefunden, um diese dritte Fehlerart der unsicherheitsbezogenen (uncertainty-related) zu handhaben.

Wir reden, wenn wir heute KI sagen, im Wesentlichen von neuronalen Netzen. Das ist eigentlich nur ein kleiner Teil der KI. Es gibt formale Methoden, die andere Teile der KI ganz gut handhaben können. Bei den neuronalen Netzen jedoch tun wir uns da schwer. Das heißt, wir brauchen neue Methoden, die uns die Möglichkeit geben, diese Ausfallrate bzw. die Wahrscheinlichkeit der Funktionsfähigkeit zu bestimmen.

Bei dem massiven Einsatz von KI, geht es auch viel ums Ausprobieren, insbesondere wenn man genug Rechenpower hat. Die Forschung und wir betrachten die Thematik mit einer deduktiven Perspektive. Die Zulassung als dritte Säule nähert sich zusätzlich an.

Der Stand ist, dass man eine klare Argumentation mit Nachweisen haben muss. Das sagt sogar die US-amerikanische FDA (U.S. Food and Drug Agency – Zulassung von Medizinprodukten). Die akzeptiert, dass KI in Produkten ist, erwartet aber eine gute Argumentation. Wir sind dabei zu fragen, wie so eine Argumentation aussehen und aufgebaut sein muss, was die Struktur dahinter ist und was die minimalen Anforderungen für eine erfolgreiche KI-Implementierung sind. Um eine Fehlerabstinenz zu deklarieren, müssen geeignete Tests konzipiert und durchgeführt werden. Solche Metriken, solche Tests und Nachweise, entwickeln die Forschung und die Industrie.

... wie sich KI-Qualität nachprüfen lässt

Wie funktioniert denn ein Verfahren, dass uns wirklich eine Nachprüfbarkeit ermöglicht? Können Sie ein Beispiel nennen?

Putzer: Grundsätzlich ist es so, dass auch eine KI – wenn sie nicht chaotisch entwickelt wurde – einem strukturierten Prozess mit gewissen Phasen unterliegt. Eine der initialen Phasen ist das Finden und Aufstellen von hochwertigen Daten, weil die KI – oder zumindest die neuronalen Netze – anhand dieser Daten lernen. Kurz gesagt: Wenn ich Schrott reinpacke, bekomme ich Schrott raus. Deshalb gibt es entsprechende Metriken. Decke ich zum Beispiel alle Typen von Verkehrsteilnehmern ab? Decke ich alle Wettersituationen ab?

Wenn ich mein Netz einmal trainiert habe, kann ich ermitteln, wie gut es trainiert ist. Wie viele meiner Testmuster – und das werden niemals alle sein – erkennt es für richtig? Und dann fange ich natürlich an, nicht nur die Muster zu nehmen, die ich trainiert habe, sondern explizit andere Muster auszuprobieren. Wie viele Menschen werden als Busch und wie viele Büsche als Mensch erkannt? Selbstverständlich sind auch solche Metriken interessant.

Bei den Heatmaps habe ich eine Methode, mit der ich an einem Muster sehen kann, warum das Netz einen gewissen Output gibt. Warum es ein Bild als Fußgänger erkannt hat oder als Busch. Es gibt beispielsweise den Fall, dass man versucht hat, mit CNNs Fußgänger zu erkennen. Nach der Entwicklung hat man mit Heatmaps analysiert und herausgefunden, dass die Fußgänger im Wesentlichen an ihren Füßen erkannt wurden. Das ist in der allgemeinen Anwendung vielleicht sogar in Ordnung, jedoch für den automotiven Bereich unzureichend. Deshalb muss man in der Entwicklung viele realitätstreue Beispiele, wie Situationen mit verdeckten Füßen, in die Datensätze einfließen lassen.

Rueß: Die Systeme lernen statistische Zusammenhänge auf Basis von Daten zu erkennen. Diese müssen nicht unbedingt die Wirklichkeit reflektieren. Sie können auch nicht generalisieren oder abstrahieren, sondern nur das Gelernte wiedergeben ohne sich in neuen Situationen zurechtfinden.

... die Bedeutung der deutschen Ingenieurskunst

KI ist in anderen Ländern in der Anwendung schon viel weiter. Warum kommt die erste KI-Anwendungsregel ausgerechnet aus Deutschland?

Rueß: Wir haben in Deutschland eine Stärke, um die uns alle beneiden. Das ist das ingenieurmäßige, sorgfältige Vorgehen bei der Entwicklung von Systemen. Wir spielen da schlichtweg unsere Stärke aus und kombinieren ingenieurmäßiges Vorgehen mit KI-Technologie, die ja ehrlicherweise nicht in Deutschland entwickelt worden ist. Aber wir hoffen, dass wir einen Vorsprung haben, um solche Systeme auch unter realistischen Bedingungen in marktreife Produkte gießen zu können.

„German Engineering“ ist in der Welt ein Begriff. Wir setzen jetzt den Standard für „German AI-Engineering“.


nahaufnahme-schach-roboter-autoNahaufnahme eines schachspielenden Roboters, selektiver Fokusmation-205146230
LIGHTFIELD STUDIOS / stock.adobe.com

Die Deutsche Normungsroadmap Künstliche Intelligenz

verfolgt das Ziel, Handlungsempfehlungen rund um KI für die Normung zu geben.

Künstliche Intelligenz gilt weltweit und in zahlreichen Branchen als eine der Schlüsseltechnologien für künftige Wettbewerbsfähigkeit. Umso wichtiger sind die Empfehlungen der Normungsroadmap, die die deutsche Wirtschaft und Wissenschaft im internationalen KI-Wettbewerb stärken, innovationsfreundliche Bedingungen schaffen und Vertrauen in die Technologie aufbauen sollen.

Zur Normungsroadmap Künstliche Intelligenz

... die Entstehung der VDE Anwendungsregel

Wie ist die VDE Anwendungsregel entstanden?

Putzer: Wir haben die Norm IEC 61508 genommen, eine der bekanntesten Normen, wenn es um „Safety“ geht. Das ist die Mutternorm, von der es ganz viele Ableitungen in unterschiedlichen Branchen gibt. Wir haben diese Norm als Kern genommen, aber eine Erweiterung in verschiedenen Punkten vorgenommen.

Neu ist die „Solutionebene“, die den Menschen und komplexe Systeme im Zusammenspiel berücksichtigt. Dann haben wir nicht nur Fehler aus Fehlfunktionen untersucht, sondern auch die Kombination mit IT-Sicherheit, sicherer Nutzung etc. Das nennt sich bei uns „Trustworthiness“. Dann haben wir dem Ingenieur eine Anleitung an die Hand gegeben, wie er von dieser abstrakten Ebene bis hinunter zu seiner KI-Ebene kommt (System-Ebene). Und für die KI-Komponente haben wir festgelegt, wie man diese ganzen Fehlermodi vermeidet (Technologie-Ebene).

... die Zukunft der VDE Anwendungsregel

Wie geht es mit der VDE Anwendungsregel jetzt konkret weiter?

Putzer: Einerseits gibt es jetzt die Version 1.0 und mittlerweile viele Unternehmen aus mehreren Branchen – Eisenbahn, Luftfahrt, Automotive, IT – die sie bald einsetzen werden. Es gibt also eine Praxiserprobung und eine Evaluierung dazu, was die Version 2.0 besser machen muss, damit insbesondere auch kleinere Firmen nicht an irgendwelchen bürokratischen Hürden hängen, sondern an dieser Zukunfts- und Schlüsseltechnologie teilhaben und sie mitgestalten können. Dadurch würde der Standard tatsächlich zum Stand der Technik werden.

Das andere ist, dass man diesen Standard noch weiterdenkt. Das Referenzframework für den Standard, den wir jetzt haben, ist insbesondere für die Entwicklung gut. Jetzt würde man gerne beurteilen: Kann jemand gut entwickeln? Das heißt, man könnte den Reifegrad definieren und dabei die VDE Anwendungsregel als Referenz nutzen.

Anschließend würde man auf jeden Fall auch anschauen, wie ein Prüfinstitut das ganze überhaupt prüfen kann. Das Bauen einer KI ist das eine, aber anknüpfend daran muss ich innerhalb einer relativ abgeschlossenen Zeit auch beurteilen, ob es gut ist. In einigen Bereichen ist es so, dass die benannten oder akkreditierten Stellen bei der Entwicklung involviert sind und diese Prüfung dann entsprechend lang ausgedehnt wird. Aber wir haben auch Branchen, wo eine Homologation (Zulassung) in ein paar Wochen durchgeht. Das verlangt darüber hinaus andere Erkenntnisse, Methoden und Praktiken, um so eine Prüfung zu durchzuführen.

Rueß: Die VDE Anwendungsregel soll weltweit ausgerollt werden. Es gibt bereits starke Interessensbekundungen, diese Anwendungsregel so wie erstellt zu übernehmen. Insbesondere von führenden Industrieländern aus dem asiatischen Raum.

Putzer: Nicht zuletzt deswegen ist VDE-AR-E 2842-61 eine der wenigen Anwendungsregeln, die nicht auf Deutsch, sondern auf Englisch geschrieben ist.

... einen KI-Standard beim autonomen Fahren

Kann man sagen, dass ein KI-Standard auch die Voraussetzung für die Zulassung eines autonomen Fahrzeugs sein sollte?

Rueß: Ja, obgleich man de facto Standards setzen kann, indem man es einfach ausprobiert. Solche Tendenzen sehen wir auch im Bereich des autonomen Fahrens: bestimmte Firmen, die einfach voranpreschen. Das ist die Alternative zu dem ingenieursmäßigen Vorgehen, dass wir hier propagieren. Aus offensichtlichen Gründen halten wir die Experimente mit und an den Kunden, die bestimmte Firmen derzeit durchführen, für unverantwortlich.

Welche konkreten Gefahren bringt dieses Trial-and-Error-Verfahren beim autonomen Fahren mit sich?

Rueß: Wir reden hier von Systemen, die im Einzelfall sogar Lastwagen mit Wolken verwechseln und die man auch von außen manipulieren und beispielsweise auf die falsche Fahrbahn locken kann. All diese Dinge meint man beherrschen zu können, solange man einen menschlichen Fahrer als Rückfallposition hat. Aber es gibt natürlich immer auch Anwender, die diese erforderliche Aufmerksamkeit vernachlässigen. Nach dem Motto: Es ist ja bisher gut gegangen.

Das heißt, die VDE Anwendungsregel wäre auch kompatibel mit dem, was die Ethikkommissionen fordern?

Putzer: Zentral ist die Trennung von Ethik und Technik: Wir legen nicht in der Anwendungsregel die ethischen Grundsätze fest. Wir brauchen diese ethischen Ziele und Grundsätze aus der jeweiligen Gesellschaft, in der das Produkt angewandt wird. Die Anwendungsregel kann dann zeigen, wie diese Grundsätze nachweislich auch implementiert und eingehalten werden.


VDE-Illustration zum Thema Funktionale Sicherheit
VDE

Sicherheitstechnik ist schwerfällig und traditionell – DKE Tagung beweist das Gegenteil!

Die DKE Tagung Funktionale Sicherheit fand in diesem Jahr erstmals online statt und erreichte mit den Vorträgen während dieser drei Tage mehr als 260 Teilnehmer*innen.

Neben den kommenden Neuerungen der dritten Ausgabe der Normreihe IEC 61508 und vielen weiteren Normungsvorhaben lag der Fokus auf den Herausforderungen durch die Industrie 4.0 sowie auf neuen Technologien wie Künstliche Intelligenz und der Blockchain-Technologie.

Zum Veranstaltungsrückblick

... den Einsatz der VDE Anwendungsregel bei Safety und Security

Sicherheit, Hackerangriffe und Cybersecurity sind Aspekte, die zeigen, wie wichtig Normen und Standards auch zur Absicherung nach außen sind.

Putzer: KI bauen ist das eine. Aber dass sie auch verlässlich ist und sich quasi um Menschenleben kümmert – da sind wir noch nicht. Oder sagen wir mal so: Der Weg dahin führt nur über ein sauberes Engineering. Und das garantiert die VDE Anwendungsregel. Sie ist nicht nur branchenunabhängig, sondern auch aspektunabhängig. Sie kann sowohl auf „Safety“ – also auf Probleme aus inneren Fehlern – als auch auf „Security“ – also Probleme aus äußeren Angriffen – angewandt werden. Zudem auch auf Probleme, die aus einer falschen Nutzung resultieren. Ethische Ziele kann man damit ebenfalls erreichen. Fairness im Verkehr zum Beispiel, sodass die KI ihren Fahrer nicht übervorteilt. All diese Aspekte können wir damit abdecken.

Rueß: Insgesamt sind wir davon überzeugt, dass ein ingenieurmäßiges Vorgehen in der Entwicklung solcher KI-basierter Systeme notwendig ist, um diese Dinge auch verantwortbar einsetzen zu können. Wir können zunehmend autonom agierende Maschinen bauen – das ist nicht das Hauptproblem. Die Absicherung ist eine entscheidende Voraussetzung für eine Marktzulassung und ein relevantes Kriterium für ein Produkt, das gesellschaftlich akzeptierten Normen entspricht.

... die persönliche Bedeutung der VDE Anwendungsregel

Welche Bedeutung sehen Sie persönlich in der VDE Anwendungsregel?

Putzer: Es ist in den letzten drei Jahren viel Energie, Schweiß und Blut in die Erstellung der VDE-AR-E 2842-61 geflossen. Dabei haben Forschungsinstitute, namhafte Industrieunternehmen KMUs und der Verbraucherschutz mitgewirkt. Herausgekommen ist ein Referenz-Rahmenwerk – wegweisend, modern und international beachtet – für die Entwicklung und die Verlässlichkeit von autonom/kognitiven Systemen unter Berücksichtigung von Künstlicher Intelligenz. Damit ist ein großer Schritt getan.

Die VDE Anwendungsregel hat das Potential, Deutschland beim Zukunftsthema KI entscheidend nach vorne zu bringen. Dazu muss diese Anwendungsregel nun eine breite, praktische Anwendung finden, evaluiert und in weiteren Schritten detailliert und ausgebaut werden.

Dazu rufen wir auf!


Werden Sie Normungsexperte
kasto / stock.adobe.com

Mitgestalten und Mitentscheiden!

Sie interessieren sich für Künstliche Intelligenz und möchten sich aktiv in der Normung zu diesem Thema engagieren? Kein Problem! Das Normungsgremium DKE/AK 801.0.8 freut sich über neue Experten, die ihr Fachwissen einbringen und „KI – Made in Germany“ weiter vorantreiben möchten.

Technischer Experte werden


Wir bedanken uns für dieses Gespräch bei unseren Normungsexperten

Portraitfoto Dr. Harald Rueß

Dr. Henrik Putzer

Experte im Normungsgremium DKE/AK 801.0.1

Leiter des Kompetenzfeldes „Trustworthy Autonomous Systems“, fortiss GmbH

Geschäftsführer, cogitron GmbH

Portraitfoto Dr. Harald Rueß

Experte im Normungsgremium DKE/AK 801.0.1

Leiter des Kompetenzfeldes „Trustworthy Autonomous Systems“, fortiss GmbH

Geschäftsführer, cogitron GmbH

Portraitfoto Dr. Harald Rueß

Dr. Harald Rueß

Experte im Normungsgremium DKE/AK 801.0.1

Wissenschaftlicher Geschäftsführer, fortiss GmbH

Portraitfoto Dr. Harald Rueß

Experte im Normungsgremium DKE/AK 801.0.1

Wissenschaftlicher Geschäftsführer, fortiss GmbH


Relevante News und Hinweise zu Normen