
Michael Kieviet
| M. KievietLange: Was ist ein autonomes System und wo werden autonome Systeme aktuell schon eingesetzt?
Kieviet: Die Frage klingt im ersten Moment einfach, ist aber nicht leicht zu beantworten. Der Begriff „autonome Systeme“ lässt vermuten, dass es sich um ein Objekt handelt, welches ohne menschliche Kontrolle selbstständig agieren bzw. seine zugedachte Aufgabe erledigen kann. Aktuell wird diese Vorstellung in der Öffentlichkeit häufig im Zusammenhang mit dem autonomen Fahren diskutiert.
Die Idee ist seit Beginn der Automatisierung immer gleich: Die Maschine erledigt eine Aufgabe vollautomatisch – das Überwachen und Steuern durch eine menschliche Arbeitskraft ist nicht mehr erforderlich. Solche Maschinen hat es theoretisch schon immer gegeben. Der nächste Schritt ist die eigenständige Adaption der Maschine an Ihre auszuführenden Aufgaben und die freie Bewegung im Raum. Auch hier könnten wir von einem „alten Hut“ sprechen: Es gibt schon sehr lange einen Autopiloten bei Flugzeugen, fahrerlose Züge oder selbständig fahrende Flurförderfahrzeuge.
Der Unterschied bei einem autonomen System ist allerdings, dass die Einsatzumgebung nicht mehr eindeutig und vorab definiert ist und sich die Systeme entsprechend der Umgebung, hinsichtlich des eigenen Verhaltens und der eigenen Reaktionen, anpassen müssen, um ihre Aufgaben zu erfüllen.
Lange: Welche Vorteile bieten autonome Systeme und was sind derzeit die größten Herausforderungen?
Kieviet: Der große Vorteil autonomer Systeme ist ihre Flexibilität – die gleichzeitig auch ihre größte Herausforderung darstellt.
Nehmen wir ein selbstfahrendes Transportsystem, das innerhalb einer Werkshalle Material von einem beliebigen Arbeitsplatz zu einem anderen beliebigen Arbeitsplatz transportieren soll. Bisher war eine solche Umsetzung beispielsweise mittels Induktionsschleifen im Boden möglich. Das war natürlich sehr aufwendig und die Wege waren fest definiert.
Heute gibt es in vielen Bereichen den Trend zur individuellen Fertigung, also Losgröße 1. Flurfördersysteme müssen sich deshalb den Umgebungsbedingungen anpassen können. Mehr noch: Die Erwartungshaltung geht heutzutage dahin, dass sich entsprechende Systeme zukünftig selbst optimieren, um letztendlich die gefahrenen Wege zu optimieren, Zeit einzusparen und auf diese Weise auch die Produktivität zu erhöhen.
Hier fangen die Probleme häufig schon an: Der Konstrukteur ist in der Pflicht, die Systemgrenzen und Einsatzszenarien, wie Abstände, Geschwindigkeiten, Ausweichmöglichkeiten sowie Quetsch- und Scherstellen, für eine Risikobeurteilung zu analysieren. Der Sinn bei autonomen Systemen ist hingegen, keine konkreten Bereiche zu definieren. Die Komplexität kann sich zudem noch erhöhen, wenn weitere Freiheitsgarde dazukommen. Es müssen also Lösungen gefunden werden, die das System auch für beliebige Individualität sicher macht. Stellen wir uns einen Verbund kollaborierender, mobiler Mehrfachroboter vor: Wenn diese ihr Verhalten durch KI lernen, haben Sie praktisch keine Chance mehr, alle Eventualitäten in einer Analyse vorherzubestimmen. Heute ist das mit den unterschiedlichsten Normen für die jeweiligen Produkte schon begrenzt realisierbar, indem die Sicherheitstechnik nach dem „Schutzzaunprinzip“, also durch virtuelle Systemgrenzen, realisiert wird – ein bewährtes Konzept der Funktionalen Sicherheit. Wenn wir aber weiterdenken, wird sehr schnell ersichtlich, dass sich die Sicherheitsgrenzen dynamisch anpassen müssen. Aus diesem Umstand heraus ergeben sich natürlich weitere und neue Herausforderungen, die sich mit einer klassischen Denkweise, und somit auch den klassischen Normen, nicht ohne Probleme vereinbaren lassen.
Lange: Existieren bereits Sicherheitsregeln für autonome Systeme und wenn ja, wie sehen diese im Vergleich zu nicht-autonomen Systemen aus?
Kieviet: Mir sind derzeit noch keine fertigen und freigegebenen Normen bekannt, die gezielt für autonome Systeme gelten. Insbesondere unter den Aspekten der Funktionalen Sicherheit können wir dieses Thema sehr kontrovers diskutieren. Es gibt bereits erste Bestrebungen das Thema „künstliche Intelligenz“ im Allgemeinen normativ zu bearbeiten. Hierzu sei beispielsweise der DKE Arbeitskreis AK 801.0.8 mit dem Arbeitstitel “Spezifikation und Entwurf autonomer / kognitiver Systeme“ genannt, der in diesem Bereich schon sehr gute Arbeit leistet. Ich halte außerdem die Betrachtung unter den Aspekten der DIN EN 61508 und „Verwandten“ für sinnvoll.
Auch hier werden wir wieder auf Diskussion stoßen, die in anderen Zusammenhängen schon kontrovers geführt wurden. Beispielsweise stellt sich die Frage der Zuverlässigkeit von selbstlernenden Systemen: Wie können wir die Zuverlässigkeit messen und nachweisen? Kommen wir bei autonomen Systemen überhaupt auf so geringe Werte, wie wir sie an anderen Stellen für die Sicherheit fordern? Ist die Referenz für die Fehlerrate der Mensch oder doch die Technik? Wie viel Dynamik und Rekonfiguration ist unter sicherheitstechnischen Aspekten überhaupt machbar? Das sind alles Fragen, die aus wissenschaftlicher Sicht sauber geklärt sein müssen, um Sie letztendlich normativ zu fixieren. Fakt ist allerdings auch, dass, bei aller Skepsis, der Einsatz von selbstlernenden und autonomen Systemen weltweit forciert wird. Mit welcher Qualität und welcher Moral dies getan wird, kann durch Normen entscheidend beeinflusst werden.