Alle News an der TU Wien

AI:Advanced 2026: Warum KI-Kompetenz kein Nice-to-have mehr ist

73 Teilnehmende, 7 Expert_innen, ein Tag im TUtheSky: Die KI-Schulung AI:Advanced 2026 lieferte praxisnahe Einblicke in AI Act, Cyber Security, KI in der Produktion und den strategischen Einsatz von Künstlicher Intelligenz in Unternehmen.

Teilnehmer_innen AI:Advanced

© Arman Rastegar

1 von 14 Bildern oder Videos

AI:Advanced - Austausch zwischen den Vorträgen

© Arman Rastegar

1 von 14 Bildern oder Videos

AI:Advanced - Austausch zwischen den Vorträgen

AI:Advanced - Austausch zwischen den Vorträgen

© Arman Rastegar

1 von 14 Bildern oder Videos

AI:Advanced - Austausch zwischen den Vorträgen

Bernhard Krüpl-Sypien

© Arman Rastegar

1 von 14 Bildern oder Videos

Bernhard Krüpl-Sypien, TU Wien, über "KI-Literacy: Grundlagen und Begriffe"

Bernhard Krüpl-Sypien

© Arman Rastegar

1 von 14 Bildern oder Videos

Bernhard Krüpl-Sypien, KI-Literacy: Grundlagen und Begriffe

Teilnehmer_innen AI Advanced

© Arman Rastegar

1 von 14 Bildern oder Videos

Teilnehmer_innen AI:Advanced

Gruppenbild AI:Advanced

© Arman Rastegar

1 von 14 Bildern oder Videos

v.l.n.r.: Oceane Camille Denise Gobin-Brassart, M.A., Julia Pleyer, Bernhard Krüpl-Sypien, Madeleine Müller, Andreas Steiner, Barbara Orazume, Lisa Müller

TUtheSky

© Arman Rastegar

1 von 14 Bildern oder Videos

Blick über Wien im TUtheSky

Teilnehmer AI:Advanced

© Arman Rastegar

1 von 14 Bildern oder Videos

Teilnehmer im Austausch

Daniel Arp

© Arman Rastegar

1 von 14 Bildern oder Videos

Andreas Steiner im Gespräch mit Julia Pleyer

Fragen aus dem Publikum - AI:Advanced

© Arman Rastegar

1 von 14 Bildern oder Videos

Fragen von den Teilnehmer_innen

Recht & Verantwortlichkeiten der KI (AI Act der EU) Madeleine Müller Senior Researcher, Consultant @ Research Institute

1 von 14 Bildern oder Videos

Recht & Verantwortlichkeiten der KI (AI Act der EU) mit Madeleine Müller

Fragen der Teilnehmer_innen - AI:Advanced

© Arman Rastegar

1 von 14 Bildern oder Videos

Fragen der Teilnehmer_innen

René Voglmayr, Barbara Orazume, Katrin Henner | TU Wien Academy

© Arman Rastegar

1 von 14 Bildern oder Videos

vl.n.r.: René Voglmayr, Barbara Orazume, Katrin Henner

KI-Kompetenz als Pflicht, nicht als Kür

Am 3. März 2026 fand im TUtheSky am Campus Getreidemarkt der TU Wien die ganztägige KI-Schulung AI:Advanced statt. 73 Teilnehmende aus Wirtschaft, Verwaltung und Wissenschaft nutzten das praxisorientierte Format, um sich mit den drängendsten Fragen rund um Künstliche Intelligenz auseinanderzusetzen — von KI-Kompetenz und AI Literacy über die KI-Verordnung der EU bis hin zu Cyber Security und KI in der Industrie.

Die AI:Advanced ist bewusst als Schulung mit Konferenzcharakter angelegt: In vier Input-Blöcken, Interviews und einer Paneldiskussion beleuchteten sieben ExpertInnen aus Forschung, Beratung und Industrie das Thema KI aus unterschiedlichen Perspektiven. Moderiert wurde der Tag von Julia Pleyer, die bei Together CCA, öffnet eine externe URL in einem neuen Fenster die Abteilung KI und Marketing leitet.

Eröffnungskeynote: KI strategisch statt technologiegetrieben einsetzen

Alin Kalam, Head of Market Intelligence & AI Coordination, UNIQA, bei der Keynote "Wo fangen wir an?"

© Arman Rastegar

Alin Kalam, Head of Market Intelligence & AI Coordination, UNIQA, bei der Keynote "Wo fangen wir an?"

Den Auftakt machte Alin Kalam, Head of Market Intelligence & AI Coordination bei der UNIQA Insurance Group, öffnet eine externe URL in einem neuen Fenster und Vortragender im Kompaktprogramm Data Literacy and AI Essentials an der TU Wien Academy. Seine zentrale Botschaft: KI ist kein Wettbewerbsvorteil mehr — es kommt darauf an, wie gut Unternehmen die Technologie tatsächlich implementieren und daraus messbaren Wert schöpfen.

Kalam sprach offen über die Realität: Rund 80 Prozent aller KI- und Datenprojekte erreichen ihre ursprünglichen Ziele nicht. Viele Unternehmen versinken in einem „Proof-of-Concept-Sumpf" mit 20 oder 30 Use Cases, die es nie zur Skalierung schaffen. Sein Rat: Weg von der Tech-First-Logik, hin zu einem Value-First-Ansatz — und vor allem in Data Literacy und AI Literacy investieren. Denn ohne ein grundlegendes KI-Verständnis in der gesamten Organisation bleibt jede KI-Initiative Stückwerk.

Die häufigsten Fehler: Daten sind nicht AI-ready, Prozesse werden falsch eingeschätzt und der Change-Widerstand in Organisationen wird unterschätzt. Kalam empfahl, bei der Priorisierung von Use Cases zwei Achsen in den Blick zu nehmen: Business Impact (Kundenzufriedenheit, Prozesseffizienz, neue Einnahmen) und Umsetzbarkeit in der Organisation.

Besonders persönlich wurde es bei der Frage nach seinem Lieblings-Use-Case: Kalam schilderte, wie er KI privat eingesetzt hatte, um für eines seiner Kinder bei einer seltenen Erkrankung weltweit Forschungsliteratur auszuwerten.

 

AI Act: Was die KI-Verordnung der EU für Unternehmen bedeutet

Recht & Verantwortlichkeiten der KI (AI Act der EU) Madeleine Müller Senior Researcher, Consultant @ Research Institute

Recht & Verantwortlichkeiten der KI (AI Act der EU) mit Madeleine Müller

Den Perspektivwechsel von der Fabrikhalle zum Gesetzestext vollzog Dr. Madeleine Müller vom Research Institute – Digital Human Rights Center, öffnet eine externe URL in einem neuen Fenster. Als Juristin und Philosophin mit Spezialisierung auf digitale Grundrechte, Datenschutz und KI-Regulierung brachte sie eine interdisziplinäre Perspektive ein, die weit über reine Compliance hinausging.

Ihr Vortrag machte deutlich, dass der EU AI Act, öffnet eine externe URL in einem neuen Fenster nicht nur Pflichten für Anbieter und Betreiber von KI-Systemen definiert, sondern auch eine grundlegende Auseinandersetzung mit Transparenz, Erklärbarkeit und Verantwortlichkeit einfordert. Die KI-Verordnung schreibt in Artikel IV vor, dass Unternehmen nachgewiesene KI-Kompetenz sicherstellen müssen — ein Punkt, der für viele Teilnehmende die unmittelbare Relevanz einer strukturierten KI-Schulung unterstrich.

Generative KI: Fundament statt Hype

Bernhard Krüpl-Sypien, externer Vortragender für Generative AI an der TU Wien und Gründer von Became AI, öffnet eine externe URL in einem neuen Fenster, ordnete aktuelle Entwicklungen im Bereich generativer KI-Modelle ein. Er gab den Teilnehmenden ein fundiertes Verständnis dafür mit, was hinter den Schlagzeilen tatsächlich passiert — und wo die technologischen Grenzen liegen. Krüpl-Sypien, der auch im Bereich Digital Humanism, öffnet eine externe URL in einem neuen Fenster engagiert ist, versteht es, KI-Potenziale und gesellschaftliche Verantwortung zusammenzudenken.

KI in der Produktion: Jenseits des Chatbot-Hypes

Daniel Arp

© Arman Rastegar

Andreas Steiner im Gespräch mit Julia Pleyer

Einen besonderen Blick über den Alltagsgebrauch hinaus ermöglichte das Bühneninterview zwischen Julia Pleyer und Dipl.-Ing. Andreas Steiner, B.Sc., wissenschaftlicher Mitarbeiter und Doktorand im Forschungsbereich Produktions- und Instandhaltungsmanagement an der Fakultät für Maschinenwesen und Betriebswissenschaften der TU Wien. Steiner bringt zehn Jahre Industrieerfahrung als Data Scientist mit und machte anhand konkreter Projekte deutlich, wie KI als Schlüsseltechnologie in der Industrie eingesetzt wird.

  • Predictive Maintenance bei den Wiener Linien: Die Wiener Linien setzen gemeinsam mit der TU Wien KI-basierte Verfahren ein, um Ausfälle bei U-Bahn-Fahrzeugen zu diagnostizieren und vorherzusagen. An den Fahrzeugen verbaute Sensoren liefern Zustandsdaten, aus denen Machine-Learning-Modelle Muster erkennen, die auf drohende Störungen hinweisen. Das Ziel: den Instandhaltungsprozess effizienter gestalten und die Fahrzeugverfügbarkeit verbessern. Steiner machte dabei klar, dass der Weg dorthin lang ist — allein die Phase der Sensorik-Nachrüstung und Datenaufnahme kann Jahre dauern, bevor überhaupt ein KI-Modell trainiert werden kann.
  • KI-gestützte Flugzeuginspektion: Ein zweites Beispiel aus der Luftfahrt illustrierte die Rolle des Menschen im System. Bei der visuellen Inspektion von Passagierflugzeugen baut Steiners Team kognitive Assistenzsysteme, die den Inspektionsprozess unterstützen, aber bewusst nicht automatisieren — vollständige Automatisierung ist in der Luftfahrt regulatorisch nach wie vor ausgeschlossen. Der Ansatz: entscheidungsstützende Maßnahmen für den Menschen, nicht Ersatz.
  • Chatbot mit Lerneffekt: Ein drittes Projekt zeigte, wie ein Industrieunternehmen einen KI-Chatbot für den Kundensupport einsetzte — und zunächst scheiterte. Die historisch gelösten Support-Tickets, auf denen das Modell trainiert wurde, waren zu unvollständig. Steiners Team setzte daraufhin ein Small Language Model ein, um die Ticket-Vollständigkeit zu prüfen, und ergänzte das System um eine Konfidenzanzeige mit ähnlichen gelösten Fällen — ein klassischer Human-in-the-Loop-Ansatz.

Auf die Frage, ob KI Jobs wegnehme, antwortete Steiner klar: Es gehe um eine Veränderung der Arbeitstätigkeit, nicht um Ersatz. Was ihn aber umtreibt, ist der demografische Wissensverlust, wenn erfahrene MitarbeiterInnen in Pension gehen — hier könne KI helfen, implizites Wissen im Unternehmen zu bewahren.

Diese Einblicke in die angewandte Forschung unterstreichen einen zentralen Differenzierungspunkt der TU Wien: Die Vortragenden bringen Erfahrung aus konkreten Industrieprojekten ein und verbinden Theorie mit Praxis — ein Ansatz, der sich auch in den KI-Weiterbildungsprogrammen der TU Wien Academy widerspiegelt.

Cyber Security und Deepfakes: Die Kehrseite des KI-Fortschritts

Daniel Arp, Assistant Professor an der Security and Privacy Research Unit der TU Wien, öffnet eine externe URL in einem neuen Fenster, eröffnete seinen Block mit einem Szenario, das die Teilnehmenden unmittelbar in die Realität moderner Cyberangriffe versetzte: Eine E-Mail vom CEO — Tonfall perfekt, Schreibstil passend, aber komplett KI-generiert. Oder ein Anruf einer Kollegin, die um Zugangsdaten bittet — nur dass die Stimme synthetisch ist. Arp machte klar: Das sind keine Zukunftsszenarien, sondern Angriffsmethoden, die heute bereits im Einsatz sind.

Besonders eindrücklich war der Fall des Londoner Ingenieurbüros Arup, öffnet eine externe URL in einem neuen Fenster: Ein erfahrener Mitarbeiter wurde in einen Videocall mit vermeintlichen Führungskräften eingeladen, führte auf deren Anweisung Finanztransaktionen über 25 Millionen US-Dollar durch — und erkannte erst im Nachhinein, dass sämtliche Gesprächspartner Deepfakes waren.

Arp zeigte anhand eigener Demonstrationen, wie wenig Aufwand heute nötig ist, um Stimmen und Gesichter täuschend echt zu imitieren. Gleichzeitig dämpfte er Erwartungen an technische Erkennungsmethoden: Weder Frequenzanalysen noch KI-basierte Detektoren seien derzeit zuverlässig genug, um Deepfakes automatisch zu erkennen. Selbst OpenAI habe seinen eigenen Erkennungsservice wieder eingestellt. Wasserzeichen und Standards wie C2PA bieten Ansätze, werden aber nicht von allen Herstellern unterstützt — und Betrüger halten sich naturgemäß nicht an EU-Regularien.

Sein pragmatischer Rat: Interne Prozesse definieren, die eine Rückversicherung über alternative Kanäle vorsehen, phishingresistente Authentifizierung wie Passkeys einsetzen und E-Mails digital signieren. Darüber hinaus beleuchtete Arp die Risiken beim Einsatz von KI im Unternehmen selbst — von Prompt Injection über Data Poisoning bis hin zu Bias — und verwies auf die OWASP Top-10-Risiken für Large Language Models, öffnet eine externe URL in einem neuen Fenster als praxistauglichen Orientierungsrahmen.

Paneldiskussion: Wie viel KI braucht unsere Gesellschaft?

Den Abschluss des Tages bildete eine Paneldiskussion zur Frage „Wie viel KI braucht unsere Gesellschaft?" — mit vier Gästen, die das Thema aus ganz unterschiedlichen Blickwinkeln beleuchteten.

Ein roter Faden durch alle Vorträge

Fragen der Teilnehmer_innen - AI:Advanced

© Arman Rastegar

Fragen der Teilnehmer_innen

Trotz unterschiedlicher Perspektiven zog sich ein gemeinsamer Faden durch den gesamten Tag: Der Unterschied zwischen einem funktionierenden Prototyp und einem skalierten KI-Projekt liegt nicht in der Technologie — sondern in Datenqualität, Prozessverständnis, organisatorischer Reife und dem Einbeziehen der Menschen, die damit arbeiten.

Ob in Kalams Warnung vor dem Proof-of-Concept-Sumpf, in Steiners Erfahrung mit fehlender Sensorik und unvollständigen Trainingsdaten, in Arps Pragmatismus gegenüber technischen Erkennungsmethoden oder in Müllers Plädoyer für Transparenz und Erklärbarkeit — überall zeigte sich: KI-Kompetenz ist mehr als technisches Know-how. Sie umfasst strategisches Denken, rechtliches Verständnis, Prozesswissen und die Fähigkeit, Menschen mitzunehmen.

Die Teilnehmenden nahmen neben dem KI-Zertifikat der TU Wien auch ein klareres Bild davon mit, wo sie in ihren eigenen Organisationen ansetzen können.

KI-Weiterbildung an der TU Wien Academy: Ihre nächsten Schritte

Die AI:Advanced 2026 hat gezeigt, dass KI-Schulung keine einmalige Angelegenheit ist — sie ist der Startpunkt für einen kontinuierlichen Kompetenzaufbau. Die TU Wien Academy for Continuing Education bietet ein abgestuftes Weiterbildungsangebot im Bereich Künstliche Intelligenz:

Alle Programme verbinden die Forschungsstärke einer international führenden technischen Universität mit der Praxiserfahrung aus konkreten Industrieprojekten.

 →Alle KI-Programme im Überblick