Roboter-Finger berühren den Bildschirm eines Autos
iaremenko / stock.adobe.com
30.01.2023 Fachinformation

Wenn der Mensch nicht mehr selbst entscheidet: Künstliche Intelligenz und Ethik messbar machen

Wir gehen mit großen Schritten in eine Zukunft, in der Künstliche Intelligenz allgegenwärtig sein wird – eine Technologie, die unser Leben von Grund auf verändern wird. Gleichzeitig geben wir damit zunehmend Verantwortung ab: autonomes Fahren, medizinische Diagnostik, schulische Bildung. Aber wie können wir sicherstellen, dass KI nicht nur auf Grundlage von Daten handelt, sondern auch etische Grundsätze berücksichtigt?

Die Normung hat sich bereits frühzeitig mit dieser Frage beschäftigt und erarbeitet mit ihren Expertinnen und Experten Lösungen für die Praxis.

Kontakt
Dr. Sebastian Hallensleben

„Ganz schön stressig“, schnaubt Jonas, als er die Tür seines E-Autos öffnet und sich auf den Fahrersitz setzt. Kurzer Check: Versichertenkarte, Schlüssel, Geldbeutel. Alles da. Mit dem nächsten Handgriff bedient er das Touch-Display. Das Fahrzeug hat er sich letztes Jahr gekauft. Ein Traum, den Jonas schon lange hatte. „Herzlich Willkommen“ steht auf dem Bildschirm. Da ihn die anstehende Untersuchung sichtlich Nerven kostet, entscheidet er sich dazu, den intelligenten Fahrzeugassistenten einzuschalten.

„Sicher ist sicher“, murmelt er und denkt: „Zum Glück sind wir technisch soweit, dass mich mein Fahrzeug in belastenden Situationen unterstützen kann.“ Was Jonas damit meint: Sein Auto erkennt gefährliche Situationen während der Fahrt – zum Beispiel Personen oder Hindernisse auf der Fahrbahn – und bremst oder umfährt sie automatisch.

Welches Manöver dabei das richtige ist, entscheidet eine Software im Hintergrund durch die integrierte Künstliche Intelligenz – kurz KI. Das Programm wurde mit einer großen Menge an Daten gefüllt. Ein neuronales Netz nutzt diese, um zu lernen, mit bestimmten Situationen umzugehen und die richtige Entscheidung zu treffen. Aber welche ist das? Und kann oder darf die KI darüber entscheiden, ob es zum Beispiel zu einer Kollision mit anderen Verkehrsteilnehmenden kommt?


Künstliche Intelligenz hat das Potenzial, unsere Welt zu verändern.

Schon heute wird Künstliche Intelligenz beispielsweise in der Industrie 4.0, beim autonomen Fahren, in Gesundheitsanwendungen und vielen weiteren Bereichen eingesetzt. Selbstlernende Systeme sind die Zukunft und werden Teil unseres Alltags. Aber wer steuert eigentlich die Künstliche Intelligenz?

Die DKE bietet Expertinnen und Experten eine Plattform, um branchen- und länderübergreifend Normen und Standards zu erarbeiten – damit ethische Regeln auch für KI gelten und KI unsere Gesellschaft so voranbringt. Wir gestalten und steuern die Künstliche Intelligenz!


Kann Künstliche Intelligenz ethisch handeln?

Genau diese Frage beschreibt ein Hauptproblem der KI-Ethik: Wenn Menschen betroffen sind, müssen die Entscheidungen der KI ethisch begründet werden können. Die Software oder Maschine handelt aber auf Basis der Daten, mit denen sie trainiert beziehungsweise programmiert wurde. Sie wird eine Entscheidung treffen. Warum sie aber im Einzelfall so oder so entscheidet, kann sie nicht begründen. Weitere kritische Faktoren: Die KI kann nicht fair denken oder sich erklären. Sie achtet die Privatsphäre von Menschen nur bedingt und kann anfällig für Manipulation von außen sein. Was zum Beispiel in der Industrie hinter verschlossenen Türen weniger relevant ist, wird für eine autonome Autofahrt oder andere Aktivitäten im öffentlichen Raum sehr wichtig, denn hier stehen Menschen im Wirkungsbereich der KI.

Während Jonas’ Fahrt laufen immer wieder Menschen über die Straße. Trotz Nebel und eingeschränkter Sicht erkennt die KI in seinem Fahrzeug die Personen und drosselt automatisch die Geschwindigkeit. Die Frage, die Jonas aber schon länger beschäftigt: Wie handelt das Auto in einer Situation, in der mehrere Personen auf der Fahrbahn sind und eine Kollision beinahe unausweichlich ist? Lenkt das Auto automatisch auf die Gegenfahrbahn und bringt die Insassen in Gefahr? Wählt es aus, mit welchen Personen es kollidiert? Wichtige Fragen, auf die Jonas keine Antwort findet. Von einem Menschen wird nicht erwartet, dass er im Ernstfall in Sekundenbruchteilen eine ethisch vertretbare Entscheidung fällt. Die Ansprüche an die KI sind jedoch höher, weil ihr das Verhalten in Ruhe antrainiert wird.

Probleme und Potenziale messbar machen

Dr. Sebastian Hallensleben, führender Experte für Künstliche Intelligenz und Ethik beim VDE, beschäftigt sich gemeinsam mit seinen Kolleginnen und Kollegen auf der ganzen Welt genau mit diesem Problem. Wie kann man ethische Faktoren und Künstliche Intelligenz zusammenbringen und entstehende Daten aus der Anwendung messbar machen? „Immer wenn Menschen betroffen sind, muss KI abwägen”, erklärt der Experte. „Dann geht es unter anderem um Faktoren wie Transparenz, Robustheit und Sicherheit. Und für ihre Umsetzung muss es Richtlinien und Normen geben.“

Für das autonome Fahren schildert der KI-Experte ein simples, aber durchaus kritisches Szenario, in dem sich die Robustheit der KI zeigt – oder nicht: Die Sensorik im Fahrzeug scannt zu jedem Zeitpunkt die Umgebung und erkennt relevante Marker wie Schilder, andere Fahrzeuge und Personen. „Verändert man jedoch ein Schild ganz minimal – zum Beispiel durch das Anbringen einiger kleiner, für das menschliche Auge völlig unerheblicher Klebestreifen – dann erkennt die KI in ungünstigen Fällen statt einem Stoppschild ein Tempolimit-Schild. Das kann gefährliche Konsequenzen haben”, sagt Hallensleben.

In den europäischen Gremien, denen Hallensleben angehört und die er als Vorsitzender leitet, entwickeln Expertinnen und Experten deshalb verschiedene Lösungsansätze: „Wir streben nach einer Beschreibung von KI-Produkten, die vom Prinzip an Energieeffizienzskalen erinnert. Also eine Skala, die beschreibt, wie sicher, transparent oder robust eine KI-Anwendung ist.“ Auf diese Weise könnten Verbraucher*innen entscheiden, wo sie im Alltag der KI das Zepter überlassen – und wo nicht. Produzent*innen hätten die Möglichkeit, ihre Technik zu optimieren und zu verbessern. Und Unternehmen, die die KI für eigene Anwendungen einkaufen, könnten sich von ihrer Qualität überzeugen, ist sich Hallensleben sicher. „Letztlich erhöht sich so überall der Anspruch, nur der KI zu vertrauen, bei der ethische Fragestellungen mitgedacht worden sind.”


DKE Newsletter-Seitenbild
sdx15 / stock.adobe.com

Mit unserem DKE Newsletter sind Sie immer top informiert! Monatlich ...

  • fassen wir die wichtigsten Entwicklungen in der Normung kurz zusammen
  • berichten wir über aktuelle Arbeitsergebnisse, Publikationen und Entwürfe
  • informieren wir Sie bereits frühzeitig über zukünftige Veranstaltungen
Ich möchte den DKE Newsletter erhalten!

Von Maschinen als Berater

Jonas hat auf seiner Tour durch die Stadt an diesem Tag Glück. Er erlebt keine gefährlichen Situationen, sein Auto bringt ihn sicher zur Arztpraxis. Im Wartezimmer schaut er auf sein Smartphone. Selbst bei diesem handlichen Gerät arbeiten im Hintergrund zahlreiche Algorithmen. Sie schlagen Nachrichten vor, speichern Nutzungsdaten oder regeln die Helligkeit des Bildschirms. Zuständig dafür sind künstliche neuronale Netze (KNN), die den kleinsten Bestandteilen von Nervensystemen nachempfunden sind. Die einzelnen “Knoten” im Netz erhalten Input in Form von Daten, erkennen Fehler und optimieren durch Rückführung die eigene Arbeitsweise.

Laut Dr. Sebastian Hallensleben entstehen so immer wieder neue Aktionen und Reaktionen. Ein neuronales Netz lernt also bestimmte Verhaltensweisen und reagiert, weil es bestimmte Abläufe erkennt. Wie genau der Prozess im Detail abläuft, ist aber für den Einzelfall fast nicht nachvollziehbar. „Neuronale Netze sind wie eine Black Box,” beschreibt der Experte die Funktion.

Jonas wird zu seinem Arzt gerufen. Er ist sichtlich nervös, doch das Gefühl legt sich schnell, als der Doktor ihm erklärt, dass es sich sehr wahrscheinlich um nichts Ernstes handelt. Das Programm hat den Mediziner jedoch auf eine Veränderung auf den Bildern des MRT hingewiesen. Ein Prozess, der in der Medizin schon erprobt wurde. Hier tritt die KI beratend auf und sondiert schon vor der Sichtung durch den oder die Mediziner*in die Ergebnisse von bildgebenden Verfahren. „Wichtig ist jedoch in den meisten Anwendungsfällen, dass der Mensch das letzte Wort hat – vor allem, wenn es um Diagnosen und anschließende Behandlungsmöglichkeiten geht”, so Hallensleben. „Außerdem darf ein*e Mediziner*in niemals die Entscheidung von sich wegschieben.“

Internationales Engagement für klare Rahmenbedingungen

Für Jonas geht es mit einem guten Gefühl nach Hause, denn sein Arzt konnte den Verdacht nicht bestätigen. Also alles gut. Damit alle Menschen auf der Welt mit einem ähnlich guten Gefühl auf die Funktionsweisen von Künstlicher Intelligenz blicken, setzen sich Dr. Hallensleben und seine Mitstreiter*innen mit Hochdruck dafür ein, Normen und Regularien für ethische KI zu entwickeln. Dabei legen er und der VDE den Grundstein für zukünftige Rahmenbedingungen. Mit dem VDE SPEC AI Trust Standard entstand ein erster Entwurf einer europäischen Norm und gleichzeitig ein erster wirklich praktikabler Ansatz, der die Standardisierung des hochkomplexen Themas der KI-Ethik möglich macht.

„Wir stehen dabei im Austausch mit Expertinnen und Experten in Europa und auf der ganzen Welt, pflegen sehr enge Beziehungen zu den Kolleg*innen in Frankreich. Das internationale Interesse an dem Thema ist überwältigend“, erklärt Hallensleben, der als Leiter des CEN-CENELEC JTC 21 arbeitet, in dem derzeit die Normen zur Unterfütterung des AI Act der EU entstehen. Den Ansatz, KI-Ethik mit den etablierten Mitteln der Normung in die Praxis zu bringen und dabei die Beschreibung der ethisch relevanten Eigenschaften von der Eignung der KI für eine bestimmte Anwendung zu trennen, hat er bereits 2019/20 in der IEC-Arbeitsgruppe „Ethics in Autonomous and Artificial Intelligence Applications“ validiert. Einen Rahmen für diese Arbeiten bildete auch die VDE Anwendungsregel VDE-AR-E 2842-61 zum Lebenszyklus kognitiver Systeme, die in Teilen bereits 2018 entstand und im Normungsgremium DKE/K 801 erarbeitet wird.

VDE und DKE agierten auch als Berater für die Enquete-Kommission „Künstliche Intelligenz“, die sich aus Bundestagsmitglieder*innen und externen Expert*innen zusammensetzte. Darüber hinaus steuert die DKE gemeinsam mit BMWK, BMAS, BMBF und DIN die Normungsroadmap Künstliche Intelligenz, deren zweite Auflage beim Digital-Gipfel der Bundesregierung im Dezember 2022 übergeben wurde. „Das Thema hat jetzt schon eine enorme Spannweite, wird aber in den nächsten Jahren noch akuter. Mit voranschreitender Digitalisierung der Welt, werden auch die Möglichkeiten der KI größer“, prognostiziert Hallensleben.

Unsere Arbeit dreht sich aktuell noch darum einen weltweiten Konsens zu finden. Zukünftig wird es darum gehen diesen Konsens in festgelegte Standards und Normen zu überführen. Wir sind also direkt involviert und treiben den Prozess der Normung voran.“


nahaufnahme-schach-roboter-autoNahaufnahme eines schachspielenden Roboters, selektiver Fokusmation-205146230
LIGHTFIELD STUDIOS / stock.adobe.com

Die Deutsche Normungsroadmap Künstliche Intelligenz

verfolgt das Ziel, Handlungsempfehlungen rund um KI für die Normung zu geben.

Künstliche Intelligenz gilt weltweit und in zahlreichen Branchen als eine der Schlüsseltechnologien für künftige Wettbewerbsfähigkeit. Umso wichtiger sind die Empfehlungen der Normungsroadmap, die die deutsche Wirtschaft und Wissenschaft im internationalen KI-Wettbewerb stärken, innovationsfreundliche Bedingungen schaffen und Vertrauen in die Technologie aufbauen sollen.

Zur Normungsroadmap Künstliche Intelligenz

Die Zukunft im Blick

Welchen Stellenwert die Arbeit von Dr. Sebastian Hallensleben und den Kolleg*innen auf der ganz Welt hat, lässt sich bereits erahnen, wird aber erst in der Zukunft zu aussagekräftigen Ergebnissen führen. Das Feld der Künstlichen Intelligenz ist vergleichsweise jung und der digitale Fortschritt verändert die Sichtweise auf das durchaus komplexe Themengebiet ständig. Das menschliche Leben wird enger mit neuartigen technischen Hilfsmitteln verknüpft sein. Die Technologien entwickeln sich fast täglich weiter. Auf diese Weise entstehen neue Probleme und Fragen, auf die wiederum Antworten und Lösungen folgen. Somit scheint auch kein Ende in Sicht.

Vielmehr zeigt sich, dass ein weltweiter Konsens und eine einheitliche Normung das Potenzial mit sich bringen, schneller und vor allem organisierter auf zukünftige Herausforderungen reagieren zu können. „Den Grundstein legen wir als VDE und DKE und sehen uns auch in den kommenden Jahren als kompetenter Ansprechpartner, wenn es darum geht, die Ethik von Künstlicher Intelligenz zu bewerten, Standards zu beschreiben und Lösungen für die wirklich wichtigen Fragestellungen zu finden“, zieht Hallensleben sein Fazit.

Redaktioneller Hinweis:

Die im Text aufgeführten Normen und Standards können Sie beim VDE VERLAG erwerben.

Mehr erfahren

Interessiert an weiteren Inhalten zu Core Safety?

Fokusbild Core Safety & Information Technologies

Core Safety & Information Technologies umschließt alle Aspekte der Sicherheit: grundlegende  Sicherheitsanforderungen, funktionale Sicherheit, Informationssicherheit sowie deren Wechselwirkungen. Außerdem befasst sich Core Safety mit wichtigen Querschnittsthemen und definiert grundlegende Anforderungen die allgemein einzuhalten sind – zum Beispiel für Elektromagnetische Verträglichkeit, Umwelt- und Ressourceneffizienz, Schadstoffe, Größen, Einheiten und Kennzeichnungen. Weitere Inhalte zu diesem Fachgebiet finden Sie im

DKE Arbeitsfeld Core Safety & Information Technologies

Relevante News und Hinweise zu Normen