Interview mit Dr. Henrik Putzer

Dr. Henrik Putzer
| H. PutzerLange: Häufig taucht auch der Begriff „maschinelles Lernen“ auf. Handelt es sich nur um einen anderen Begriff für KI oder ist das eine Unterdisziplin?
Putzer: Tatsächlich existiert keine allgemein anerkannte Taxonomie für den Bereich der KI. Was ist KI? Ist ein Schachcomputer bereits KI? Vor 50 Jahren wäre ein solches Gerät eindeutig Magie gewesen – oder eben KI. Heute sehen wir das anders: Der Schachcomputer wiederholt letztendlich nur erfolgreiche Zugfolgen aus einer Datenbank und berechnet die Züge im Voraus. Aus dem Bauch heraus wird die Entscheidung „KI oder nicht KI?“ oft abhängig vom Verständnis der Prozesse in der Maschine getroffen. Hofstadter formuliert dazu: „KI ist alles, was noch nicht getan wurde“.
Wissenschaftlich nutzt man den Begriff KI weniger und zielt eher auf die funktionale Leistung ab. So kann „maschinelles Lernen“ als eine Teildisziplin von KI eingeordnet werden. Das maschinelle Lernen selbst kann dabei sowohl auf symbolischen Grundsätzen beruhen (Wissen liegt explizit vor, z. B. Regelsysteme) oder auch subsymbolisch repräsentiert sein (Wissen wird implizit repräsentiert). Letzteres umfasst wiederum das maschinelle Lernen mit neuronalen Netzen und Deep Learning. Die umgangssprachliche Gleichsetzung von maschinellem Lernen oder gar KI mit neuronalen Netzen ist nicht korrekt.
Lange: Mit dem Begriff „Künstliche Intelligenz“ werden oftmals auch autonome Fahrzeuge erwähnt. Wie lässt sich KI aus Ihrer Sicht am besten beschreiben?
Putzer: „Autonome Fahrzeuge“ beinhaltet interessante Aspekte: „Autonom“ ist die umgangssprachliche Beschreibung selbstfahrender Autos, was wissenschaftlich korrekt als „voll automatisiert“ bezeichnet wird. Und so ist KI im engeren Sinne auch zu verstehen: als eine (relativ neue) Methodik, Automation zu implementieren. Flapsig gesprochen könnte man die aktuelle Form der KI-Nutzung als „Beschleunigung des Entwicklungsprozesses“ verstehen. Im Entwicklungsprozess werden klassische Anforderungen an Eingänge, Verarbeitung und Ausgabe zunächst spezifiziert und anschließend implementiert.
Insbesondere mit neuronalen Netzen ändert sich das: Neuronale Netze „lernen“ die Verarbeitung, also die Verbindung von Eingängen zu Ausgängen, anhand von Beispieldate. Dafür passt ein Algorithmus die internen Parameter des neuronalen Netzwerks solange an, bis der Zusammenhang der Eingänge und Ausgaben hinreichend dargestellt wird. Neue und ähnliche Eingänge kann das Netz interpolieren und findet auf diese Weise Lösungen zu bis dahin unbekannten Eingängen. Parameter anpassen und interpolieren klappt manchmal gut, manchmal nicht und nur in seltenen Fällen verstehen wir genau, warum.
Schließlich entzieht sich dieser subsymbolische Entwurf einem geordneten Prozess und einer von Menschen verstehbaren, symbolischen Repräsentationen (bei symbolischer KI ist das anders). Dies ist auch ein Grund, weshalb es schwer ist, KI-Methoden für einen sicherheitsrelevanten Einsatz zu qualifizieren. Unbestritten ist, dass durch diese neue Entwurfsmethodik der KI höhere Komplexitäten erreicht werden können. Ebenso unbestritten in Fachkreisen ist, dass sich KI – in der aktuell genutzten Form – keine eigenen Ziele setzen, keine neuen Domänen erschließen und auch nicht die Weltherrschaft übernehmen kann – es sei denn, man automatisiert genau das.