Was Digitaler Wandel mit Autonomie und Selbstbestimmung zu tun hat

Prof. Dr. Sabine Theresia Köszegi über die Wirkungsweise von automatisierten Entscheidungssystemen

Digitales Gesicht

Von Mag. Sara Oran

In ihrem Aufsatz „Der autonome Mensch im Zeitalter des digitalen Wandels“ behandelt Prof. Dr. Sabine Theresia Köszegi, einerseits die Frage ob Künstliche Intelligenz (KI)-Systeme in der Lage sind unparteiische Entscheidungen zu treffen, andererseits zeigt sie auf, auf welche Art und Weise sie die Autonomie des Menschen einschränken und welche Aspekte zu einer positiven Entwicklung der Systeme in der Zukunft beitragen können, um Menschen und die Gesellschaft zu schützen.

Können KI-Systeme unparteiische Entscheidungen treffen und wer trägt die Verantwortung?

KI-Systeme finden in einer Vielzahl von Gebieten Anwendung. So werden z.B. automatisierte Entscheidungssysteme entwickelt, um Menschen Entscheidungen abzunehmen, denn sie treffen diese vermeintlich effizierter und ohne Einfluss von Vorurteilen. Sie sollen Ärzt_innen bei der Diagnose von Patient_innen oder Manager_innen beim Recruiting helfen, aber auch Staaten und öffentliche Institutionen setzen solche automatisierte Entscheidungssysteme ein. Als anschauliches Beispiel zu ihrem Einsatz führt Köszegi die Suche nach neuen Mitarbeiter_innen für eine Firma an. Kann das automatisierte Entscheidungssystem nun ohne Vorurteile und ohne dabei Menschen zu diskriminieren, eine Auswahl an passenden Kandidat_innen treffen?

Bei dem Gedanken, dass KI-Systeme rein objektive Rechenmaschinen sind, wird ein wesentlicher Aspekt außer Acht gelassen: maßgebliche Aspekte des Systems, wie die Definition des Entscheidungsproblems, die Auswahl an relevanten Daten und bestimmenden Parameter, kommen von Menschen und so fließen kulturelle, gesellschaftliche und politische Werte in das System ein. Köszegi versteht sie daher als sozoiotechnische Systeme, die für die gleichen voreingenommenen Entscheidungen anfällig sind wie Menschen.

Köszegi wirft in diesem Zusammenhang auch die Frage nach der Verantwortung für (Fehl-) Entscheidungen auf, da durch die Delegation von Entscheidungen an automatisierte Systeme die wahrgenommene Kontrolle und Eigenverantwortung der Menschen zunehmend eingeschränkt wird.

Menschen, die KI-Systeme verwenden, haben in der Regel großes Vertrauen in die Technologie und stellen dabei ihr eigenes Urteilsvermögen in Frage. Laut einer Studie, die dies mittels einer Gesichtserkennungssoftware erforscht hat, geht es sogar so weit, dass Menschen selbst an offensichtlich falschen Ergebnissen der Software festhalten.

Wie autonom können wir unsere Entscheidungen treffen?

Auch in unser Privatleben finden diese Technologien Eingang, indem sie basierend auf unseren Vorlieben und bisherigen Entscheidungen für uns Produkte, Dienstleistungen, Partner_innen, Musik sowie Informationen und Nachrichten, die für uns von Interesse sein könnten, vorselektieren. So wissen wir einerseits gar nicht, welche Optionen uns vorenthalten werden und andererseits wissen wir meist auch nicht über die Tatsache Bescheid, dass KI-Systeme eingesetzt werden.

Durch sogenanntes „Profiling“, basierend auf persönlichen Daten von Nutzer_innen, bekommen Unternehmen die Möglichkeit mithilfe von manipulativen Taktiken direkt auf das Verhalten und die Stimmung von Nutzer_innen Einfluss zu nehmen, und können so z.B. eigene ökonomische Interessen durchsetzen.

Die mangelnde Transparenz und die zum Einsatz kommenden manipulativen Taktiken zeigen auf, dass die Autonomie von Nutzer_innen bei Entscheidungen sowie auch ihre individuelle Freiheit und Selbstbestimmung eingeschränkt werden.

Wie soll es weitergehen?

Laut Köszegi stehen wir gegenwärtig vor einer bedeutenden Phase, in der wir die Gestaltung von KI-Systemen noch beeinflussen können. Ethikrichtlinien sollen dabei helfen eine Technologie zu gewährleisten, bei der auf das Wohlergehen der Gesellschaft sowie auf die Umwelt, in der wir leben geachtet wird.

Die Ethikrichtlinien der Expert_innengruppe der Europäischen Kommission zu Künstlicher Intelligenz, an denen Köszegi mitarbeitete, fordern eine menschenzentrierte Technologie, die die Rechte der Menschen schützt und respektiert.

In der Expert_innengruppe wurden 7 Anforderungen erarbeitet: vertrauensvolle KI-Systeme sollen demnach die Qualität und Integrität der Daten sowie den Schutz der Privatsphäre wahren. Sie sollen technische Robustheit und Sicherheit, Transparenz, das Grundrecht der Autonomie und Selbstbestimmung, Verantwortlichkeit, Vielfalt sowie Nichtdiskriminierung und Fairness sicherstellen und gesellschaftliches und ökologisches Wohlergehen im Sinne haben.

Da die Sicherung unseres Grundrechtes auf Freiheit und Selbstbestimmung bisher noch wenig diskutiert wurde, sieht Köszegi einen großen Aufklärungsbedarf über die Wirkungsweise von automatisierten Entscheidungssystemen.

Fazit:

KI-Systeme sind nicht wie oft angenommen, rein objektive Rechensysteme - automatisierte Entscheidungssysteme treffen die gleichen, diskriminierenden Entscheidungen wie Menschen, da sie auf von Menschen ausgewählten Daten, Parametern und Zielen basieren. Durch sie kann die Autonomie von Menschen eingeschränkt werden und aus beiden genannten Gründen sollten sie in ihrem jeweiligen Anwendungskontext sorgsam und unter Berücksichtigung von Ethikrichtlinien gestaltet werden.


Der Aufsatz erschien in: Markus Hengstschläger/Rat für Forschung und Technologieentwicklung (Hg.) (2020): Digitaler Wandel und Ethik. Salzburg, München: Ecowin Verlag. S. 62-90


Sabine Theresia Köszegi ist Professorin am Institut für Managementwissenschaften der TU Wien und leitet dort den Fachbereich Arbeitswissenschaft und Organisation, sie ist außerdem Lehrgangsleiterin des MBA Innovation, Digitalization & Entrepreneurship an der Academy for Continuing Education Center (ACE) an der TU Wien.


Weitere Informationen zum MBA Innovation, Digitalization & Entrepreneurship und den Management & Leadership MBA Programmen der TU Wien. Die Bewerbung für den Lehrgangsstart im Wintersemester 2021/22 ist bis 26. September 2021 möglich.