Unsere Forschungsschwerpunkte sind:

  • Klassifikation und Regression
  • Multivariate Verfahren
  • Dimensionsreduktion
  • Biostatistik
  • Hochdimensionale Statistik
  • Statistische Analyse von probabilistischen Programmen
  • Anwendungen in Biowissenschaften und Technik
  • Bayessches Lernen
  • Experimentelles Design

Wichtiger Durchbruch im Bereich vertrauenswürdige KI durch interdisziplinäres Team aus Informatik und Mathematik: Forschende der TU Wien entwickeln einen neuen Ansatz zur Quantifizierung von Unsicherheit in neuronalen Netzen.

 

Ein interdisziplinäres Forscherteam der TU Wien (Andrey Kofnov, Daniel Kapla, Ezio Bartocci und Efstathia Bura) hat einen wichtigen Meilenstein im Bereich der Künstlichen Intelligenz erreicht und eine neuartige Methode vorgestellt, um Unsicherheiten in neuronalen Netzen präzise zu quantifizieren – und somit den Weg für eine sicherere Anwendung von KI in sicherheitskritischen Bereichen zu ebnen.

 

Unsere Arbeit „Exact Upper and Lower Bounds for the Output Distribution of Neural Networks with Random Inputs“ (https://arxiv.org/abs/2502.11672, öffnet eine externe URL in einem neuen Fenster) wurde kürzlich auf der renommierten International Conference on Machine Learning (ICML) angenommen – einer der drei wichtigsten Konferenzen im Bereich Maschinelles Lernen und Künstliche Intelligenz.

 

Diese Forschung ist das Ergebnis einer engen interdisziplinären Zusammenarbeit zwischen zwei Fakultäten der TU Wien: der Cyber-Physical System Research Unit der Fakultät für Informatik (Bartocci) und der ASTAT Research Unit der Fakultät für Mathematik und Geoinformation (Kofnov, Kapla, Bura). Diese Arbeit unterstreicht die Kernmission der TU Wien Doktorandenschule SecInt (Secure and Intelligent Human-Centric Digital Technologies), an der Spitze der Forschung an der Schnittstelle von Maschinellem Lernen, formalen Methoden und Cybersicherheit zu stehen.

 

Warum das wichtig ist

 

Künstliche Intelligenz verändert alle Bereiche der Gesellschaft – von selbstfahrenden Autos bis zu tragbaren Gesundheitsmonitoren. Aber eine große Herausforderung bleibt: Wie sehr können wir KI-Vorhersagen vertrauen, wenn die Eingabedaten unsicher oder verrauscht sind?

 

In sicherheitskritischen Anwendungen wie dem autonomen Fahren oder medizinischen Geräten können schon kleine Fehler oder unvorhergesehene Verhaltensweisen verheerende Folgen haben. Traditionelle neuronale Netze bieten oft nur wenig Einblick in ihre Zuverlässigkeit, besonders bei unbekannten Eingaben.

 

Das TU Wien Team hat einen neuen Ansatz für dieses Problem entwickelt: eine mathematisch rigorose Methode, um exakte obere und untere Schranken der Vorhersagen neuronaler Netze zu berechnen, wenn die Eingabedaten unsicher sind. Dies liefert garantierte Fehlermargen – ein entscheidender Fortschritt gegenüber bestehenden Methoden, die stark auf Approximationen oder aufwändige Simulationen angewiesen sind.