VDE DKE Tagung Funktionale Sicherheit 2023
Melanie Kahl / LitschiCo-Erfurt.de
31.05.2023 Veranstaltungsrückblick

VDE DKE Tagung Funktionale Sicherheit 2023

Die VDE DKE Tagung Funktionale Sicherheit fand in diesem Jahr wieder in Präsenz statt. Etwa 130 interessierte Teilnehmende nahmen an der Veranstaltung im Kaisersaal in Erfurt teil.

Neben den kommenden Neuerungen der dritten Ausgabe der Normreihe IEC 61508 und weiterer Normungsvorhaben lag der Fokus auf den Herausforderungen durch die zunehmende Integration von Künstlicher Intelligenz und dem EU Cyber Resilience Act. Wichtige Themen, denn betroffen sind eine Vielzahl von Branchen und Industrien: Industrieautomation, Automobiltechnik sowie Anlagen- und Maschinenbau, Bahntechnik, Medizingeräte und Gebäudeautomation.

Nach vier Jahren Corona-bedingter Abstinenz traf sich die Gemeinde der Experten der funktionalen Sicherheit wieder im Kaisersaal in Erfurt zur Bestandsaufnahme in Sachen IEC 61508.

Neben der Vorbereitung der dritten Ausgabe dieser Sicherheitsgrundnorm fanden Künstliche Intelligenz und die Auswirkungen verschiedener Gesetzesvorhaben der EU erhöhte Aufmerksamkeit – kontroverse Themen, bei denen die Teilnehmenden die Möglichkeit des persönlichen Gespräches sowohl im Plenarsaal als auch in den Pausen zu schätzen wussten.

Kontakt
Sascha Man-Son Lee
Zuständiges Gremium

Gleich zu Beginn seiner Eröffnung konfrontierte der Tagungsleiter Prof. Jens Braband (Mitarbeiter der Siemens Mobility GmbH und Honorarprofessor an der TU Braunschweig) die Teilnehmenden mit dem Ergebnis einer ChatGPT-Anfrage. Er hatte die charmante Maschine beauftragt, einige bekannte Zitate von Goethe und Schiller auf das Thema „Funktionale Sicherheit“ umzusetzen. Es herrschte Übereinstimmung, dass das intellektuelle Niveau des Ergebnisses nur mittelmäßig war – zu wenig für Sicherheitszwecke. Doch dies kann sich demnächst ändern. Außerdem gibt es viele Ansatzpunkte für den Einsatz Künstlicher Intelligenz in der funktionalen Sicherheit, die es jeweils abzuklären gilt.

Dr. Rasmus Adler (Programmmanager am Fraunhofer-Institut für Experimentelles Software Engineering IESE) ging in seiner Keynote auf die Frage ein, ob Maschinen Risiken beurteilen dürfen. Hiermit waren Fälle gemeint, in denen autonome Systeme, wie Fahrzeuge oder Co-Bots, neuen Anwendungsfällen, für die noch keine Risikoanalyse vorliegt, gegenüberstehen. Aktuell lautet die Antwort eindeutig „nein“, denn beispielsweise erwartet die Maschinenrichtlinie der EU als Hersteller, der für die Risikoanalyse verantwortlich zeichnet, eine menschliche Instanz. Jedoch wird bereits an Ansätzen gearbeitet, diese zumindest maschinell zu unterstützen.

Einer davon sieht vor, dass der digitale Zwilling einer Maschine, z. B. ein Roboter, alle Informationen für die Risikoanalyse bereithält, sodass Dienste einer übergeordneten Instanz oder anderer Maschinen sie für die Beurteilung des neuen Anwendungsfalls nutzen und einen Assurance Case erstellen können. Dabei handelt es sich um ein Dokument, das den Nachweis der funktionalen Sicherheit auf genormte und maschinenlesbare Weise fixiert. Allerdings muss all dies von Menschen vorbereitet werden, die damit am Ende doch wieder die Entscheidungen zur Akzeptanz eines Risikos fällen. 

Thomas Pilz (Mitinhaber der Pilz GmbH & Co. KG für Sicherheitstechnik im Maschinen- und Anlagenbau) erinnerte die Anwesenden in der zweiten Keynote daran, dass der Nutzen der funktionalen Sicherheit im Schutz von Leben besteht – für uns Menschen und unsere Umwelt. Das lässt sich nur über Normen erreichen. Um den Schutz auch weiterhin aufrecht zu erhalten, sollte die Art und Weise, wie wir mit Hilfe der Normen mit diesem Begriff umgehen, erhalten bleiben. Vor allem sprach er den Wunsch aus, dass künftige Gesetze nicht die Kreativität von Ingenieurinnen und Ingenieuren einschränken.



Neue EU-Maschinenverordnung wirkt sich auf Sicherheitseinrichtungen aus

Benjamin Hiete (Manager Technische Regulierung beim ZVEI im Bereich Digitalisierung und Recht) erläuterte diesen Rechtsakt der Europäischen Union, dessen Veröffentlichung im Juli 2023 erwartet wird, und der direkt in nationales Recht umgesetzt wird. Ab voraussichtlich 2027 müssen alle Produkte, die in seinen Bereich fallen und erstmalig dem Markt zur Verfügung gestellt werden, ihm folgen (Übernahme per Stichtag).  

Die Pflicht zur Drittstellenprüfung besteht bereits bei der jetzigen Maschinenrichtlinie für sicherheitsgerichtete Steuerungen. Dies wird auch bei der neuen Maschinenverordnung so bleiben; sie werden dort im Anhang 1 als „Hochrisiko-Maschinenprodukte“ aufgeführt. „Maschinen, in die Sicherheitsfunktionen wahrnehmende KI-Systeme integriert sind“ werden unter einem Extrapunkt ebenfalls aufgezählt, sodass die neue Maschinenverordnung auch bereits eine Regulierung für den Einsatz von Künstlicher Intelligenz enthält, nämlich eine spezielle Drittstellenprüfung.

2025 will die EU-Kommission prüfen, ob der oben genannte Anhang 1 erweitert werden soll, also weitere Komponenten oder Maschinen drittstellenpflichtig werden. Grundlage dafür werden Unfallstatistiken sein, die ihr aus den Mitgliedsländern gemeldet werden. Diese wiederum werden in Deutschland von den Berufsgenossenschaften erstellt, wozu sie die bei ihnen eingegangenen Unfallmeldungen ausgewertet werden. Unternehmen sind damit zukünftig in dieses Berichtswesen eingebunden.

Die EU-Kommission beabsichtigt, eine neue Ausgabe des Leitfades zur Maschinenrichtlinie zu veröffentlichen, der dann für die neue Maschinenverordnung gilt und die Interpretationsfragen abdecken soll.

Der sogenannte Cyber Resilience Act der Europäischen Kommission, also der geplante Rechtsakt, um die Widerstandsfähigkeit von „Produkten mit digitalen Elementen“ gegen IT-Sicherheitsangriffe zu erhöhen, stand zwar nicht auf der Tagesordnung, tauchte aber in Vorträgen und Diskussionen immer wieder auf.

Im Anschluss an den Vortrag von Benjamin Hiete meinte Thomas Bömer (Mitglied des Programmkommitees, Institut für Arbeitsschutz der Deutschen gesetzlichen Unfallversicherung), dass Artikel 9 des jetzt vorliegenden Vorschlags von Anwendern so verstanden werden könne, dass beispielsweise für sicherheitsgerichtete Steuerungen nur noch die Konformität gegenüber der kommenden Cyber-Resilience-Verordnung nachgewiesen werden muss, ein Nachweis der funktionalen Sicherheit jedoch nicht als erforderlich angesehen wird. Damit würde auch eine Konformität gegenüber den einschlägigen Normen hinfällig. Es muss befürchtet werden, dass so der Weg für nicht ausreichend sichere Maschinensteuerungen geebnet wird. Hiete wird diesen jetzt unzureichend geregelten Überlappungsbereich der beiden geplanten Rechtsakte im ZVEI ansprechen.



Dritte Ausgabe der IEC 61508 erfordert die Anpassung von Leitplanken

Die Norm IEC 61508 bildet als Sicherheitsgrundnorm die Leitplanken für die sicherheitsgerichtete Automatisierungstechnik. Doch diese sollen nicht den technischen Fortschritt versperren, sondern ihn lenken. Über 40 Arbeitsgruppen arbeiten daher unter dem Dach von IEC/SC 65A/MT 61508-1/-2, um die IEC 61508 neu auszurichten.

Der Sitzungsleiter des Blocks 1, Norbert Fröhlich (Pilz GmbH & Co KG) machte das Auditorium darauf aufmerksam, dass nach einer mehrjährigen Vorbereitungsphase die Normenfortschreibung mit Zieldatum 2028 begonnen hat. Der britische Arbeitsgruppenleiter Ron Bell geht in den Ruhestand, seine Nachfolger werden Holger Laible (Siemens AG, Mitarbeiter des deutschen Spiegelgremiums DKE/GK 914) und Riccardo Mariani/Italien.

Aus dem umfangreichen Arbeitsprogramm hoben die deutschen Mitarbeiter des IEC/SC 65A/MT 61508-1/-2 Stephan Aschenbrenner (Leiter DKE/AK 914.0.4 und Geschäftsführer der Exida Deutschland GmbH) und Michael Kindermann (Leiter DKE/AK 914.0.3 und Leiter Funktionale Sicherheit bei Pepperl + Fuchs SE) die nachfolgenden Punkte hervor. Da bei einigen Themen ein dringender Informationsbedarf gesehen wird, plant IEC/SC 65A hierzu die Vorab-Veröffentlichung als Technical Specifications. Sie entsprechen Vornormen.

  • Bewertung von Diagnosen (On-line-Überwachungseinrichtungen): In der jetzt gültigen 2. Ausgabe der IEC 61508 sind hierzu keine Vorschriften enthalten. In der neuen Ausgabe soll die Definition des gefahrbringenden Ausfalls so erweitert werden, dass sie auch Ausfälle der Diagnose umfasst. Vorschriften und Anleitungen zu deren Berücksichtigung sollen hinzugefügt werden.
  • Definition von „Element“ Diese wird benötigt, um die Vorschriften zur notwendigen Redundanz richtig interpretieren zu können. Die jetzige Definition wird in der Praxis oft missverstanden.
  • Komplexe ICs: Die Industrie stellt mittlerweile eine Vielzahl hochintegrierter Bauelemente mit unterschiedlichen Eigenschaften für Sicherheitszwecke zur Verfügung, sodass eine Klassifizierung und eingehende Behandlung erforderlich ist. Folgende Klassen sind vorgesehen: Klasse 0 – Schaltungsentwürfe mit ICs dieser Klasse können nicht auf mitgebrachte Sicherheitseigenschaften derselben zurückgreifen. Klasse 1 – ICs dieser Klasse stellen zuverlässige Diagnosen zur Verfügung, die der Systementwurf nutzen kann. Klasse 2 – Zuverlässige Diagnose und interne Redundanz werden zur Verfügung gestellt. (geplante Vorab-Veröffentlichung als IEC TS 61508-2-1).
  • Berücksichtigung von Ausfällen gemeinsamer Ursache: Das aus der Automobilnorm ISO 26262 stammende Konzept der „Common Cause Initiators“ soll mit aufgenommen werden.
  • Einbeziehung von Hardware und Software, die nach ISO 26262 entwickelt wurde: Produkte, die für die sicherheitsgerichtet Automobiltechnik qualifiziert wurden, sollen auch für andere Industriebereiche zugänglich sein (geplante Vorab-Veröffentlichung: IEC TS 61508-6-1).
  • Formale Methoden zur Software-Erstellung: geplante Veröffentlichung als IEC TS 61508-3-2.
  • Objektorientierte Programmierung: Diese weit verbreitete Methode wird in der jetzt vorliegenden zweiten Ausgabe der IEC 61508-3 negativ bewertet. Dieses soll geändert werden zu einer Empfehlung für kontrollierte Anwendung und Beachtung bestimmter Beschränkungen (geplante Vorab-Veröffentlichung: IEC TS 61508-3-3).

Schaltzentrale
chungking - Fotolia

Funktionale Sicherheit: Der Schutz des Menschen vor der Maschine

Funktionale Sicherheit ist essenziell und kommt immer dann zum Einsatz, wenn Produkte, Anlagen und Prozesse so komplex sind, dass deren Sicherheit auf einfachem Weg nicht mehr ausreichend getestet werden kann.

International liegt mit IEC 61508 eine horizontale Normenreihe vor, die eine Grundlage für eine Vielzahl von Branchen und Anwendungsfeldern bietet.

Zur Fachinformation

Einsatzgebiete von KI müssen differenziert betrachtet werden

Im Zweiten Block der Veranstaltung berichtete Dr. Detlev Richter (Global Head of Industrial and Energy Products beim TÜV Süd und Mitarbeiter DKE/AK 931.0.14) über ein Vorhaben, genormte Daten im digitalen Zwilling zu hinterlegen, die maschinenlesbar sind. Sie können dadurch – und mit Unterstützung von Künstlicher Intelligenz – die Risikoanalyse unterstützen, bevor autonome Maschinen sich zu neuen Produktionseinheiten selbst rekonfigurieren. Letzteres ist ein zentrales Ziel von Industrie 4.0. Um vertrauenswürdige Analysen zu ermöglichen, ist ein ständiger Abgleich des digitalen Zwillings mit Daten aus der Maschine aufzubauen.

Anhand der Vorträge von Dr. Henrik Putzer (Mitarbeiter der Cogitron GmbH und mehrerer DKE Gremien) über die VDE Anwendungsregel VDE-AR-E 2842-61 „Entwicklung und Vertrauenswürdigkeit von autonom/kognitiven Systemen“ und Michael Kieviet über den Fachbericht ISO/IEC TR 5469 “Artificial Intelligence – Functional safety and AI systems” wurden die unterschiedlichen Auffassungen über den möglichen Einsatz von Systemen mit Künstlicher Intelligenz in der funktionalen Sicherheit deutlich. Während Putzer das Vordringen von Künstlicher Intelligenz auch in den Kernbereich der funktionalen Sicherheit, also das Ausführen von Sicherheitsfunktionen, erwartet, empfiehlt der Fachbericht den Einsatz an dieser Stelle nicht. Nach der Einteilung der ISO/IEC TR 5469 entspricht dies der Klasse 3, bei der eine Verifizierung der Eigenschaften des Systems nicht mehr möglich ist.

Putzer plädiert hingegen dafür, die KI-Möglichkeiten weiterhin auch in diesen Einsatzgebieten zu erproben. Hierfür muss allerdings eine neue Ausfallart, die Unsicherheit (Uncertainty) speziell für Künstliche Intelligenz, unterstellt werden. Auf Nachfrage aus dem Publikum meint er, dass ein Maßnahmenkatalog zu deren Begrenzung nach dem Vorbild der Anhänge zur IEC 61508-2 und IEC 61508-3 noch nicht vorliegt.

Prof. Thomas Zielke (Hochschule Düsseldorf) gab einen Überblick über Arbeiten zur Künstlichen Intelligenz, die sich bis ins Jahr 1956 zurückverfolgen lassen und der zugehörigen Normung. Diese begann 1995 mit der ISO/IEC 2382-28:1995, Information technology – Vocabulary – Part 28: Artificial intelligence – Basic concepts and expert systems. Vor allem die Definition des Begriffs „Künstliche Intelligenz“ machte und macht immer wieder Schwierigkeiten.

Über Möglichkeiten, Künstliche Intelligenz im Musterkennungsprozess von autonomen Systemen zu täuschen, berichtete Fabian Woitschek vom ZF AI Lab in Saarbrücken. Diesen Mustererkennungsprozess benötigen beispielsweise autonome Fahrzeuge zum Erkennen von Verkehrsschildern. Ebenfalls stellt er ein Verfahren mit Auditierung vor, um dieses Problem einzugrenzen.

Stefan Goi (zuständig beim TÜV Rheinland für die Beurteilung von Produkten der Automobilzulieferindustrie) berichtete über die Erarbeitung der ISO PAS 8800 „Road Vehicles – Safety and Artifical Intelligence“. Das Thema ist noch sehr im Fluss und daher für Normungsgremien schwierig zu bearbeiten. In dem aktuell vorliegenden Arbeitsentwurf zur ISO PAS 8800 sind die Anforderungen nicht richtig greifbar. Die in der Presse mitunter zu findende Diskussion, wie Künstliche Intelligenz Ethik anwenden soll und welche Person bei einem nicht zu vermeiden Zusammenstoß „zu opfern“ sei, wird in diesem Papier nicht behandelt und Stefan Goi hielt sie auch nicht für relevant, da Unfallvermeidung das vordringliche Ziel sei.

In der ISO PAS 8800 ist vorgesehen, den Lernprozess in den neuronalen Netzen in einer Trainingsphase durchzuführen und das hiermit ausgestattete Automobil mit fixierten Netzen auszuliefern. Ein „Weiterlernen“ findet in der Betriebsphase dann nur über die regelmäßigen Updates statt.

In der anschließenden Podiumsdiskussion fragte Jens Braband die Teilnehmenden, wie Systeme mit Künstlicher Intelligenz geprüft und zertifiziert werden können. Zwar gab es verschiedene Vorschläge zur Weiterarbeit, wie umfangreiche Simulation oder einfach ausprobieren und Erfahrungen sammeln, eine gezielte Vorgehensweise zeichnete sich aber nicht ab. Die Frage muss also nach wie vor als ungelöst betrachtet werden.


Interview mit Stefan Goi

Interview mit Stefan Goi

| zapp2photo / stock.adobe.com & Yaruniv-Studio / stock.adobe.com

KI-Systeme unter Betrachtung der Funktionalen Sicherheit – es braucht einen holistischen Ansatz

Autonomes Fahren kann dazu beitragen, die zahlreichen Probleme im Straßenverkehr zu lösen. Dafür müssen aber auch neue Methoden entwickelt werden, um die Sicherheit zu gewährleisten. Stefan Goi vom TÜV Rheinland spricht mit uns im Interview über die Herausforderungen beim Einsatz von KI im Straßenverkehr, den Standard ISO PAS 8800 und die Anforderungen an künftige Standards aus Sicht eines Dienstleisters für Prüfungen und Zertifizierungen von KI-Systemen.

Mehr erfahren

Herstellerpflichten und die unauffällige Verschiebung der Verantwortlichkeit

Johana Constante Pérez (Gruppenleiterin beim TÜV Süd für IT-Sicherheit) berichtete im dritten Block über die ISO/SAE 21434 „Road vehicles – Cybersecurity engineering“. Die Norm beschreibt ein Managementsystem zur Gewährleistung der IT-Sicherheit von Automobilen. OEMs müssen dann ab 2024 ein derartiges Managementsystem implementiert haben, um die UNECE-Regelung R 155 „Cyber security and cyber security management system“ zu erfüllen. Der Aufbau der ISO/SAE 21434 lehnt sich an die ISO 26262 an. Die Norm enthält keine konkreten Anforderungen, keine Stufung der Anforderungen anhand einer Metrik und auch keine Marurity Level für die eingeführten Prozesse.

Dr. Kai Wollenweber (Siemens Digital Industries und Mitarbeiter DKE/UK 931.1) berichtete über die Fortsetzung der Arbeiten zur Normenreihe IEC 62443. Diese behandelt die IT-Sicherheit für industrielle Anlagen und darin verbaute Produkte. Der Schwerpunkt der Arbeiten liegt derzeit auf der Erstellung von Profilen sowie auf Prüfvorschriften. Hier müssen zunächst noch Erfahrungen mit der praktischen Umsetzbarkeit gewonnen werden. Eine vollständige Vergleichbarkeit von Produkten kann wahrscheinlich nicht erreicht werden.

Die Erarbeitung dieser umfangreichen Normenreihe erfordert wegen der Neuigkeit und der Komplexität des Themas und der Einbeziehung aller interessierten Kreise auf jeden Fall Zeit. Der bereits erwähnte Cyber Resilience Act der EU wird dem New Legislative Framework folgen, sodass harmonisierte Normen zur Konformitätserklärung verwendet werden können. Im Europäischen Amtsblatt sind jedoch noch keine aufgeführt worden. Sollte CENELEC die EN 62443-Reihe dafür zur Verfügung stellen wollen, so dürften auf jeden Fall hohe Erwartungen an die schnelle Verfügbarkeit gestellt werden. Die Kommission hat, falls aus ihrer Sicht die harmonisierten Normen nicht schnell genug vorgelegt werden können, daneben auch das Mittel der „Community Specifications“ zur Verfügung, die sie selbst erarbeitet und verabschiedet. Jedoch sei zu fragen, ob diese ausreichend qualifiziert erstellt werden können.

Immer wieder wird von Seiten außerhalb der Industrie die Forderung erhoben, mit Hilfe der Common Criteria nach ISO/IEC 15408 Schutzprofile zu erstellen und deren Einhaltung über Evaluation Assurance Level zu prüfen. Auf Nachfrage aus dem Publikum kommentierte Wollenweber, dass dies für die Anlagen der Industrieautomation wenig erfolgversprechend sei. Zwar ist diese Methode bei einzelnen Produkten bei entsprechend hohem Aufwand anwendbar, jedoch gibt es in der Industrieautomation sehr viele Elemente und Konfigurationen, die alle mit hohem Aufwand einzeln überprüft werden müssten. Außerdem ist bei der Methode nach Common Criteria das Problem von Änderungen infolge anlagentechnischer Anpassungen oder auch Software-Patches ungelöst, denn diese erfordern eine komplette neue Bearbeitung.


Interview mit Dr. Kai Wollenweber

Interview mit Dr. Kai Wollenweber

| Nataliya Hora / stock.adobe.com & Yaruniv-Studio / stock.adobe.com

EU Cyber Resilience Act wird einen großen Einfluss auf die Automatisierungsbranche haben

Gleichwohl der EU Cyber Resilience Act zur Regulierung von Produkten insgesamt begrüßt wird, besteht an wichtigen Stellen noch Diskussionsbedarf. Betroffene Akteure setzen sich mit den Herausforderungen auseinander – und sind mit bereits etablierten Prozessen klar im Vorteil. Dr. Kai Wollenweber spricht mit uns im Interview über die Auswirkungen, die der EU CRA mit sich bringt, und die weiteren Arbeiten an der Normenreihe IEC 62443.

Mehr erfahren

Thomas Klindt (Partner der Rechtsanwaltskanzlei Noerr und Professor für Europäisches Produkt- und Technikrecht an der Universität Bayreuth) erläuterte in seinem Vortrag, dass der Entwurf der neuen Produkthaftungsrichtlinie der EU den Fehlerbegriff erweitert: Ein Produkt gilt jetzt auch als fehlerhaft, wenn die Cybersecurity nicht gewährleistet ist oder eine KI-Komponente eine zusätzliche Gefährdung mit sich bringt. Dies führt zu neuen Gründen für die Produkthaftung. 

„Cyber-Resilience“ bedeutet im Grunde Sabotagefestigkeit – und die Einführung dieses Haftgrundes führt zu einer neuen Verteilung von Risiken in unserer Gesellschaft. Da man des Saboteurs, also des Hackers, schlecht habhaft werden kann, lag das Risiko der Folgen eines Angriffs in der „alten analogen Welt“ beim Betreiber eines Gerätes oder eines Stücks Software. Das Risiko wandert jetzt zum Hersteller. Klindt zeigte sich verwundert darüber, dass diese nicht öffentlichkeitswirksamer dieser Abweichung von bisherigen Vorgehensweisen widersprechen. 

Die Strafen, die der Entwurf des neuen Cyber Resilience Acts vorsieht, sind erheblich. Klindt bezweifelte, dass der Hersteller diese mit Hilfe einer Versicherung abfangen kann, denn eine Strafe bei ungesetzlichem Verhalten ist nicht versicherbar. Hier werden Rückstellungen unumgänglich sein. 

Der geplante Cyber Resilience Act verlangt vom Hersteller Schwachstellenmanagement und Auslieferung von Sicherheitspatches für fünf Jahre unentgeltlich. Dazu ist auch der Aufbau eines umfangreichen Kundenmanagements nötig, was gerade für mittelständische Unternehmen eine erneute Herausforderung bedeuten dürfte. 

Ingo Rolle, Mitglied des Programmkomitees, meinte, dass auch bei Risikoanalysen für Anlagen und Maschinen in der jüngsten Zeit vermehrt auf Sabotage eingegangen wird, was das Publikum auf seine Frage hin bestätigte. Unabhängig davon, welche Sicht man auf diese Dinge hat, machte der Vortrag den Anwesenden klar, dass die Einführung von Sabotagefestigkeit als Pflicht des Herstellers zu einem erheblichen zusätzlichen Aufwand und neuen Risiken für diesen führt.



Über ein Mandat der Europäischen Kommission an die Normungsorganisationen CEN und CENELEC berichtete Manuel Díez (Geschäftsfeldleiter Cybersicherheit und Funktionale Sicherheit in der TÜV Rheinland-Gruppe). Hiermit sollen die grundlegende Anforderungen 3.3(d), 3.3(e) und 3.3(f) der Funkgeräte-Richtlinie 2014/53/EU abgedeckt werden. Diese betreffen den Schutz von Netzwerken und persönlichen Daten sowie Schutz vor Betrug. Allerdings ist noch unklar, wie der Anwendungsbereich der Richtlinie interpretiert werden kann. Bedeutet beispielsweise bei einer Werkzeugmaschine „Funkgerät“ nur das Funkmodul, was in dieser möglicherweise verbaut ist, oder gleich die ganze Maschine? Zudem ist noch unklar, wie der Schutz gegen Betrug nachvollziehbar, mit angemessenem Aufwand und in ausreichendem Maße nachgeprüft werden kann.

Im letzten Block der Veranstaltung wurden unter der Moderation von Thomas Steffens (TÜV Rheinland Industrieservice GmbH) verschiedene Anwendungen der funktionalen Sicherheit dargestellt: Niederspannungs-Leistungsschalter von Silvio Förtsch (Siemens AG), Ventile für künftige Wasserstoffanwendungen von Dr. Jan Schumacher (TÜV Rheinland), Wehrtechnik von Alexander Andriotis (SCERTAS GmbH) und Batteriemanagement von Ulrich Kögl (TÜV SÜD Product Service GmbH)


DKE Newsletter-Seitenbild
sdx15 / stock.adobe.com

Mit unserem DKE Newsletter sind Sie immer top informiert! Monatlich ...

  • fassen wir die wichtigsten Entwicklungen in der Normung kurz zusammen
  • berichten wir über aktuelle Arbeitsergebnisse, Publikationen und Entwürfe
  • informieren wir Sie bereits frühzeitig über zukünftige Veranstaltungen
Ich möchte den DKE Newsletter erhalten!

Fazit: Wertvolle Diskussionen zur Vereinbarkeit von KI und Sicherheit

Die Erfurter Tage können mittlerweile als feste Institution in der Gemeinde der deutschen Experten und Expertinnen der funktionalen Sicherheit angesehen werden. Als Stefan Ditting (Produktmanager HIMA Paul Hildebrandt GmbH und Mitarbeiter DKE/UK 931.1) die Teilnehmenden nach zwei Tagen des intensiven Gedankenaustausches aus dem Kaisersaal entließ, war deutlich geworden, dass auf dem Weg der Vereinigung von Künstlicher Intelligenz und Sicherheit noch viele Hindernisse vor uns liegen. Während dies jedoch noch vor einigen Jahren teilweise schroff abgelehnt wurde, wird heute sachlich über Lösungsansätze diskutiert. Dabei wurde deutlich, dass Industrie 4.0 ohne den Beitrag der funktionalen Sicherheit nicht umgesetzt werden kann.

Einige Gesetzesvorhaben der EU, die in das Gebiet Sicherheit hineingreifen, stellen eine Herausforderung für die automatisierungstechnische Industrie dar oder werden sogar als Bedrohung wahrgenommen. Umso wichtiger wird es sein, dass weltweit gültige, in freier Selbstverwaltung entstandene Normen helfen, den Weg in die Zukunft zu ebnen!

In zwei Jahren wird sich die Community wieder zu einer neuen Bestandsaufnahme in Erfurt treffen.

Redaktioneller Hinweis:

Die im Text aufgeführten Normen und Standards können Sie beim VDE VERLAG erwerben.

Mehr erfahren

Interessiert an weiteren Inhalten zu Core Safety?

Fokusbild Core Safety & Information Technologies

Core Safety & Information Technologies umschließt alle Aspekte der Sicherheit: grundlegende  Sicherheitsanforderungen, funktionale Sicherheit, Informationssicherheit sowie deren Wechselwirkungen. Außerdem befasst sich Core Safety mit wichtigen Querschnittsthemen und definiert grundlegende Anforderungen die allgemein einzuhalten sind – zum Beispiel für Elektromagnetische Verträglichkeit, Umwelt- und Ressourceneffizienz, Schadstoffe, Größen, Einheiten und Kennzeichnungen. Weitere Inhalte zu diesem Fachgebiet finden Sie im

DKE Arbeitsfeld Core Safety & Information Technologies

Relevante News und Hinweise zu Normen