Interview mit Simon Burton

Simon Burton
| S. BurtonLange: Mit dem Begriff „Künstliche Intelligenz“ werden oftmals auch autonome Fahrzeuge erwähnt. Wie lässt sich KI aus Ihrer Sicht am besten beschreiben und kann es KI-gesteuerte Fahrzeuge geben, die nicht autonom sind?
Burton: „Künstliche Intelligenz“ ist ein sehr breiter Begriff und wird oft auch missinterpretiert. Man neigt dazu anthropomorphische Eigenschaften auf ein „denkendes“ Fahrzeug zu übertragen, was wiederum zu Missverständnissen und falschen Erwartungen führen kann. Deswegen rede ich lieber von spezifischen technischen Verfahren, zum Beispiel „Convolutional Neural Networks“, einer Form von Deep Learning, die viel Potential in der maschinellen Verarbeitung von Bilddaten gezeigt haben.
Wenn man von KI-gesteuerten Fahrzeugen spricht, meint man in der Regel autonom fahrende Autos, wo die Fahrzeugsteuerungskommandos, d. h. lenken, bremsen, überholen usw., anhand von maschinellen lernbasierten Algorithmen erzeugt werden. Solche Algorithmen können auch in nicht autonom fahrenden Autos eingesetzt werden. Ein Beispiel hierfür ist eine videobasierte Erkennung und Anzeige des aktuellen Tempolimits auf Basis Neuronaler Netze als Information für den Fahrer.
Lange: Gibt es neben dem autonomen Fahren im Fahrzeug noch andere Anwendungsfelder für KI?
Burton: KI-Methoden haben einen Vorteil, wenn größere Mengen von unstrukturierten Daten ausgewertet werden müssen, um wertschöpfende Rückschlüsse zu ziehen. Dies kann das Lernen von typischem Verhalten anderer Verkehrsteilnehmer sein wie beim autonomen Fahren. Es gibt aber auch andere Anwendungen, zum Beispiel in der Qualitätssicherung in der Fertigung, prädiktive Diagnose und Antriebsstrategieoptimierung.
Lange: Wenn ich an Alpha Go, Alpha Go Zero und Alpha Zero denke, ist das extrem beeindruckend. Allerdings hat das System in diesem Fall 100 Prozent der verfügbaren Informationen. Das ist in der Realität nicht immer so. Wie schlägt sich KI in Situationen mit unvollständigen Informationen?
Burton: Bestimmte Klassen von KI-Algorithmen, wie Neuronale Netze, sind eigentlich gut geeignet, um aus unvollständigen Informationen, Bewertungen abzugeben. Man kann die Funktionsweise grob so verstehen, dass die Algorithmen zunächst mit repräsentativen Datensätzen trainiert werden. Während des Betriebs wird eine Art Mustererkennung durchgeführt, um der aktuellen Situation die gelernten Eigenschaften zuzuordnen. Die Herausforderung, die wir bei autonomem Fahren haben, ist eher zu wissen, welche und wie viele Trainings-Daten repräsentativ genug sind und ab wann der Algorithmus ein ausreichend vollständiges Modell der Zielumgebung gelernt hat. Ein Beispiel hierfür ist die Tatsache, dass unsere Systeme in selten vorkommenden Situationen, zum Beispiel wenn ein Kleinkind seinem Spielball in der Straße hinterherrennt, genauso gut reagieren können müssen, wie in Situationen, die bei jeder Fahrt vorkommen. Wie wissen wir, ob unser gelerntes System tatsachlich alle kritischen Grenzfälle beherrschen kann?
Lange: Wie kann Künstliche Intelligenz dabei unterstützen, Sicherheitssysteme (im Sinne von Safety) zu verbessern und welche Vorteile bietet Künstliche Intelligenz in Sicherheitssystemen?
Burton: Fortschrittliche KI-Algorithmen, gekoppelt mit der erhöhten Rechnungsleistung sowie Sensorik, ermöglichen neue und verbesserte Sicherheitsfunktionen, die in vielen Situationen schneller und besser reagieren können als der Mensch. Letztendlich sind menschliche Fehler zuständig für den Großteil aller Verkehrsunfälle. Dadurch, dass die Algorithmen komplexe Zusammenhänge in den Daten erkennen können, können sie proaktiv kritische Situationen von vornherein vermeiden.