News

Künstliche Intelligenz vorhersagbar machen

Wie kann man beweisen, dass sich künstliche Intelligenz in bestimmten Situationen richtig verhalten wird? An der TU Wien wurden mathematische Methoden dafür entwickelt.

Sophie Gruenbacher und Graphiken aus der Publikation

© PicturePeople

Mit den neuen Methoden lässt sich vorhersagen, in welchem Bereich der Zustand des Systems bleiben wird - visualisiert durch einen blauen "Schlauch". Bisherige Methoden (orange) waren viel ungenauer: Ab einem gewissen Zeitpunkt wird der Raum der möglichen Zustände extrem breit.

Künstliche Intelligenz spielt in unserem Alltag eine wachsende Rolle – auch in Bereichen, in denen man sich keine Fehler erlauben darf, etwa im Straßenverkehr oder bei der Steuerung von Herzschrittmachern. Dort möchte man eine Garantie haben, dass die künstliche Intelligenz nicht plötzlich etwas Unerwartetes macht, sondern sich genau so verhält, wie man sich das wünscht.
 
An der TU Wien gelang es nun, neue Methoden zu entwickeln, mit denen man das sicherstellen kann: Ein neuronales Netz wird mit Differentialgleichungen beschrieben, und dadurch lässt sich beweisen, dass das System einen bestimmten Bereich möglicher Zustände innerhalb einer bestimmten Zeit nicht verlässt. Schon die erste Publikation über diese neue Methode wurde mit einem Preis des Institute of Electrical and Electronics Engineers (IEEE) gewürdigt, die zweite wurde nun bei der AAAI-Konferenz für künstliche Intelligenz angenommen, was in der Informatik-Community als besonders prestigeträchtige Auszeichnung gilt.

Neuronale Netze: Mächtig aber schwer vorhersagbar

Ein gewöhnliches Computerprogramm ist einfach eine Liste von Befehlen, die nacheinander abgearbeitet werden. Wenn man das Programm kennt, lässt sich recht einfach vorhersagen, wie sich der Computer in nächster Zeit verhalten wird. Bei neuronalen Netzen, die man für künstliche Intelligenz verwendet, ist die Sache komplizierter: Virtuelle Nervenzellen sind zu einem komplexen Netz verwoben, sie stimulieren einander gleichzeitig und auf schwer durchschaubare Weise.

„Künstliche Intelligenz durchschaubar und vorhersagbar zu machen ist eines der wichtigsten Ziele dieses Forschungsbereichs“, sagt Sophie Grünbacher, die Erstautorin der aktuellen Publikation. Die Mathematikerin ist Doktorandin in der Forschungsgruppe des Informatikers Prof. Radu Grosu, daneben gründete sie das Start-up-Unternehmen DatenVorsprung, das sich auf verifizierbare und erklärbare künstliche Intelligenz spezialisiert hat.

„Stellen wir uns zum Beispiel einen ganz simplen Anwendungsfall für künstliche Intelligenz vor“, sagt Sophie Grünbacher. „Einen kleinen beweglichen Roboter, der mit einem neuronalen Netz ausgestattet ist, um einen Stab zu balancieren. Die Frage ist: Wie exakt können wir für einen bestimmten Zeitraum das Verhalten dieses Roboters vorhersagen?“ Die physische Situation des Systems – etwa die Position des Roboters oder der Winkel des Stabes – ist natürlich nie mit perfekter Präzision bekannt, sondern immer nur innerhalb einer gewissen Messungenauigkeit. Man muss daher untersuchen, ob kleine Unsicherheiten in den Anfangsbedingungen vielleicht dazu führen können, dass der Zustand des Systems zu einem späteren Zeitpunkt dramatisch von den Erwartungen abweicht und den Bereich, den man als „sicher“ bezeichnen würde, verlässt.

Die mathematische Tunnelröhre

„Wir beschreiben das neuronale Netz mit Differentialgleichungen und wenden darauf dann unseren Algorithmus an“, erklärt Sophie Grünbacher. „Aufgrund der zwangsläufig ungenauen Anfangsbedingungen kann uns der Algorithmus nicht exakt sagen, in welchem Zustand sich das System zu einem bestimmten Zeitpunkt befinden wird, aber es kann einen bestimmten Bereich angeben und garantieren, dass dieser Bereich nicht verlassen wird.“ Das Verhalten des Systems entspricht also einem Auto, das in einem Tunnel fährt: Die exakte Position des Autos kann man als Betrachter_in von außen nicht sehen, aber man kann garantieren: Es wird ganz sicher innerhalb des Tunnels sein. Diese „Röhre der Vorhersagbarkeit“ soll freilich möglichst eng sein – der Zustand des Systems soll nicht nur ungefähr sondern möglichst präzise vorherberechnet werden.

„Genau in diesem Punkt sind uns einige große Fortschritte gelungen“, sagt Sophie Grünbacher. „Bei anderen Vorhersagemethoden für künstliche Intelligenz wuchs die Unsicherheit mit der Zeit so stark an, dass die Ergebnisse bald völlig unbrauchbar wurden. Mit unseren mathematischen Methoden kann man das Verhalten der künstlichen Intelligenz für viel größere Zeiträume viel genauer vorhersagen – unser errechneter Tunnel, in dem das System garantiert bleibt, ist um Größenordnungen enger als bisher.“
Auch Wahrscheinlichkeitsabschätzungen sind möglich: So kann man mit den neuen Methoden etwa auch einen Bereich ausrechnen, in dem das System immerhin mit 99-prozentiger Wahrscheinlichkeit bleiben wird – man nimmt eine minimale Unsicherheit in Kauf, kann dafür aber bei gleicher Genauigkeit noch deutlich weiter in die Zukunft blicken.

Weg vom „Black-Box-Prinzip“

„Solche Systeme könnten in Zukunft in vielen Bereichen der künstlichen Intelligenz für mehr Sicherheit sorgen“, sagt Sophie Grünbacher. „Unser Modell könnte gewissermaßen als Aufpasser für ein neuronales Netz agieren und ständig überwachen, ob die Gefahr besteht, dass das System demnächst den erlaubten Bereich verlässt. Und wenn das passiert, kann gegengesteuert oder vielleicht ein Mensch um Hilfe gerufen werden.“ Dadurch ist künstliche Intelligenz nicht länger eine „Black Box“, die man von außen nicht verstehen kann, sondern ein Werkzeug, dessen Verhalten durchschaubar und vorhersagbar wird.

Originalpublikation

Das Paper wurde nun bei der Konferenz AAAI-22 angenommen. Eine frei zugängliche Version des Papers gibt es hier: https://arxiv.org/abs/2107.08467, öffnet eine externe URL in einem neuen Fenster

Der Code auf Github:https://github.com/DatenVorsprung, öffnet eine externe URL in einem neuen Fenster

Kontakt

Sophie Grünbacher
Institut für Logic and Computation
Technische Universität Wien / DatenVorsprung
+43 1 513 111185
sophie@datenvorsprung.at

Aussender:
Dr. Florian Aigner
Technische Universität Wien
PR und Marketing
Resselgasse 3, 1040 Wien
43 1 58801 41027
florian.aigner@tuwien.ac.at