Schattenblick → INFOPOOL → NATURWISSENSCHAFTEN → TECHNIK


INFORMATIONSTECHNOLOGIE/1298: Künstliche Intelligenz - Wie verlässlich ist sie? (idw)


Goethe-Universität Frankfurt am Main - 10.12.2018

Künstliche Intelligenz: Wie verlässlich ist sie?


Künstliche Intelligenz (KI) führt heutzutage Aufgaben aus, die man einst nur Menschen zutraute. In vielen Bereichen unserer Gesellschaft ist intelligente Software bereits angekommen: in autonomen Fahrzeugen, der medizinischen Diagnostik, in Übersetzungsprogrammen, Gesprächsassistenten, Suchfunktionen und der Robotik. Doch können wir der intelligenten Software vertrauen? Kriterien für verlässliche KI-Systeme diskutiert der Informatiker Prof. Visvanathan Ramesh in der aktuellen Ausgabe des Forschungsmagazins "Forschung Frankfurt".

Frankfurt. Auch wenn im Zusammenhang mit Künstlicher Intelligenz immer wieder von einer Revolution gesprochen wird, handelt es sich um eine seit 60 Jahre andauernde Evolution. Diese erfolgte in drei Wellen: In der ersten entstanden Expertensysteme, für die man menschliches Expertenwissen in fest definierte Regeln übersetzte. Die Systeme waren jedoch relativ unflexibel, da sie mit Mehrdeutigkeit und Unsicherheiten der realen Welt nicht gut zurechtkamen. Das führte zur zweiten Welle der KI, in der statistische Methoden des maschinellen Lernens zum Einsatz kommen. Die KI-Systeme lernen mithilfe großer Mengen von Trainingsdaten und werden durch Optimierungsalgorithmen immer besser. Heute führen tiefe neuronale Netzwerke eine Vielzahl eng gefasster Aufgaben der KI aus.

Der Erfolg der zweiten KI-Welle - und damit einhergehend der explosionsartige Umfang ihrer Anwendungen - ist in den letzten zehn Jahren insbesondere durch den Fortschritt bei der Rechenleistung, Trainingsalgorithmen und weltweit verfügbare Computernetzwerke möglich geworden. Am wichtigsten ist jedoch nach wie vor eine stetig zunehmende Menge an gesammelten und gespeicherten Daten, die die Basis des Lernens bilden.

Trotz aller Erfolge weist auch die zweite Welle der KI Unzulänglichkeiten auf. Denn wie und warum ein KI-System zu Ergebnissen kommt ist, kann oft nicht erklärt werden. Erst im September gelang es einer Gruppe kanadischer Forscher, ein intelligentes Sehsystem zu narren. Sie forderten es auf, die Gegenstände in einem Wohnzimmer zu benennen. Das ging solange gut, bis das Bild eines Elefanten in der Szene auftauchte. Das brachte die Software so aus dem Konzept, dass sie den Stuhl als "Sofa" bezeichnete, den Elefanten als "Stuhl" und blind wurde für Gegenstände, die sie zuvor gesehen hatte. Dazu Prof. Ramesh: "Aus diesem Grund benötigen wir gründliche Analysen solcher Systeme, damit wir deren Leistungsfähigkeit und Zuverlässigkeit laufend überprüfen können." Dazu müsse man wissen, wie das System die äußere Welt repräsentiert und wodurch es gestört wird, zum Beispiel durch das Auftauchen unerwarteter Gegenstände. Um die Ursache des Problems zu verstehen und zu beheben, muss man es schließlich mit der spezifischen Systemarchitektur in Beziehung setzen können.

Als logische Konsequenz treten in der dritten Welle der KI, der "kontextuellen Adaption", die drei Eigenschaften Erklärbarkeit, Argumentation und Abstraktion in den Vordergrund. Gerade bei sicherheitsrelevanten Anwendungen, wie dem autonomen Fahren, ist es von enormer Bedeutung, genau verstehen und nachvollziehen zu können, warum ein Algorithmus zu einer bestimmten Entscheidung gelangt ist. Das System muss seine eigene Verlässlichkeit selbst einschätzen können, um nötigenfalls auf eine sichere Alternative umsteigen zu können. Die zunehmenden Berührungspunkte zwischen künstlicher und menschlicher Intelligenz (z.B. in Assistenzsystemen, der Mensch-Roboter-Interaktion oder beim autonomen Fahren) erfordern zudem, dass das System mit dem Menschen kommunizieren und seine Annahmen, Motivation und Argumentation nahtlos begründen kann.

Als Professor für Software Engineering mit dem Schwerpunkt "Biologisch inspirierte Sehsysteme" hat Visvanathan Ramesh von 2011 bis 2016 den "Bernstein-Focus: Neurotechnology" an der Goethe-Universität und am Frankfurt Institute of Advanced Studies (FIAS) koordiniert. Aktuell hat er das EU-Projekt AEROBI abgeschlossen, in dem er Systems-Engineering für intelligente Sehsysteme weiterentwickeln und in automatisierte Werkzeuge integriert hat. Seine Gruppe verfolgt einen systemorientierten Ansatz, der alle Aspekte der drei KI-Wellen vereint.

Wie man sich das vorzustellen hat, erläutert Doktorand Tobias Weis: "In Fallstudien untersuchen wir beispielsweise Systeme zur Videoüberwachung, Bremslicht-Transitions-Detektion bei autonomen Fahrzeugen, Systeme, die Defekten an Bauten wie Brücken klassifizieren und sogar fußballspielende Roboter. Wir testen, wie diese Systeme Aufgaben lösen, besonders in komplexen Situationen. Und schauen, ob wir Anomalien entdecken wie jene, die durch den Elefanten im Wohnzimmer ausgelöst wurde."


Originalpublikation:
http://www.forschung-frankfurt.uni-frankfurt.de/34831594/Aktuelle_Ausgaben___Forschung_Frankfurt?

Kontaktdaten zum Absender der Pressemitteilung unter:
http://idw-online.de/de/institution131

*

Quelle:
Informationsdienst Wissenschaft e. V. - idw - Pressemitteilung
Goethe-Universität Frankfurt am Main, 10.12.2018
WWW: http://idw-online.de
E-Mail: service@idw-online.de


veröffentlicht im Schattenblick zum 12. Dezember 2018

Zur Tagesausgabe / Zum Seitenanfang