Am 3. November durfte ich als Speakerin und Diskutantin an der uniMind-Jahresveranstaltung 2025 des Universität Wien – Postgraduate Center teilnehmen. Unter dem Titel „KI im Job – Das Ende der Arbeit, wie wir sie kennen?“ diskutierten Expert:innen aus Wissenschaft, Praxis und Medien, welche Chancen, Risiken und Gestaltungsfragen der Einsatz von KI im Arbeitsleben mit sich bringt.
Ich hatte die Freude, die Podiumsdiskussion gemeinsam mit Alexander Schmoelz (Professor für digitalen Humanismus an der Fachhochschule des BFI Wien), Eva Eggeling (Center-Leitung „Data Driven Design“ bei Fraunhofer Austria), sowie Michael Köttritsch (Die Presse, Moderation)
zu führen.
Die Veranstaltung fand in der Alten Kapelle am Campus der Universität Wien statt und in Kooperation mit der Wirtschaftskammer Wien, der Arbeiterkammer Wien und der Wiener Stadtwerke GmbH.
Im Rahmen der Veranstaltung wurde das neue Buch „KI trifft Arbeit. Wie künstliche Intelligenz die Arbeitswelt verändert“ vorgestellt. Ich durfte ein Kapitel beisteuern, in dem ich mich folgenden Fragen widme:
- Wie beeinflussen KI-gestützte Systeme Entscheidungen im Arbeitskontext – etwa im Recruiting, Performance Management oder Skill-Matching?
- Welche Formen von algorithmischer Diskriminierung können entstehen?
- Warum ist Transparenz entscheidend, um diese Risiken zu reduzieren?
- Und welchen Beitrag können kontrafaktische Erklärungen leisten, um KI-Entscheidungen nachvollziehbarer zu machen?
👉 Hier geht’s zur Publikation:
https://www.waxmann.com/buch200053
Was regelt der Artificial Intelligence Act (AI Act) konkret?
Der Artificial Intelligence Act ist die weltweit erste umfassende gesetzliche Regelung für den sicheren Einsatz von KI-Systemen. Er wurde 2024 als EU-Verordnung verabschiedet (Verordnung EU 2024/1689) und ist direkt in allen Mitgliedstaaten anwendbar ohne nationale Umsetzungsgesetze.
Die wichtigsten Ziele der Verordnung sind:
✔ Klarheit für Unternehmen und Verbraucher beim Umgang mit KI-Technologien
✔ Sicherstellung der Vertrauenswürdigkeit und Sicherheit von KI
✔ Schutz der Grundrechte wie Datenschutz, Gleichbehandlung und Nichtdiskriminierung
✔ Förderung von Innovation und Wettbewerbsfähigkeit
Zentrale These meines Kapitels
Ich argumentiere, dass KI-basierte Systeme zur automatisierten Entscheidungsfindung (ADM) bestehende Ungleichheiten nicht nur fortschreiben, sondern verstärken können. Der Grund: Intransparente Modelle, unklare Verantwortlichkeiten und unzureichende Rechtsschutzmechanismen.
Gerade im HR-Kontext führt das dazu, dass Arbeitssuchende oder Beschäftigte Entscheidungen nicht nachvollziehen können, obwohl diese unmittelbare Auswirkungen auf Chancen, Karrieren und berufliche Entwicklung haben.
Ein Beispiel dafür ist der vielfach diskutierte AMS-Chatbot, der stereotype Berufsempfehlungen reproduzierte. Auch wenn solche Tools formal nur „unterstützend“ wirken, prägen sie reale berufliche Perspektiven und können unmerklich Diskriminierung verfestigen.
DSGVO, AI Act & aktuelle Rechtsprechung – wo stehen wir?
Ein besonderer Fokus liegt in meinem Beitrag auf der Schnittstelle zwischen Datenschutzrecht und KI-Regulierung. Wichtig ist dabei das jüngste SCHUFA-Urteil des EuGH, das klarstellt:
Schon ein automatisiert generierter Score, der maßgeblich in eine Entscheidung einfließt, kann als automatisierte Entscheidung gelten.
Für die Arbeitswelt bedeutet das, wenn KI-Systeme Bewerber:innen filtern oder Rankings erstellen, braucht es echte menschliche Kontrolle und keine rein formale Abzeichnung.
Der EU AI Act ergänzt dieses Bild: KI-Systeme im Beschäftigungskontext gelten künftig als Hochrisiko-Systeme. Das bedeutet strenge Transparenz-, Dokumentations- und Aufsichtspflichten.
Aber: Ein vollwertiges „Recht auf Erklärung“ entsteht daraus (noch) nicht. Umso wichtiger sind alternative Transparenzinstrumente.

Kontrafaktische Erklärungen: Ein realistischer Weg zu mehr Transparenz
Statt die innere Logik komplexer Modelle (Black Box) zu erklären, liefern kontrafaktische Erklärungen eine simple, alltagsnahe Antwort: „Was hätte anders sein müssen, damit das Ergebnis anders ausgefallen wäre?“ Kontrafaktische Erklärungen werfen also „Was-wäre-wenn“-Fragen auf.
Mein Beispiel aus dem Vortrag war: Eine Mitarbeiterin bekommt keine Beförderung. Ihr Kollege, der genauso lange im Unternehmen ist und die gleiche Qualifikation hat, wird aber befördert. Begründung: Man geht davon aus, dass sie vielleicht bald eine Familie gründen will und deshalb längere Zeit ausfallen könnte. D.h. eine kontrafaktische Erklärung entlarvt Bias in der KI und würde jetzt eine veränderbare Bedingung nennen, die zu einer anderen Entscheidung geführt hätte, z. B.: Wenn die MA im letzten Jahr mindestens zwei zusätzliche Führungsprojekte erfolgreich abgeschlossen hätte, wäre sie für die Beförderung berücksichtigt worden.
Es ist transparent und nachvollziehbar, ohne dass ich die komplizierte Logik des KI Systems verstehen muss. So, könnte man in Unternehmen gegen algorithmische Bias bei automatisierten Entscheidungen entgegenwirken.
Sie sind:
✔ handlungsorientiert
✔ leicht verständlich
✔ ohne Offenlegung von Geschäftsgeheimnissen möglich
✔ bestens geeignet für HR-Kontexte
Damit können sie eine Brücke schlagen zwischen technischer Komplexität und praktischer Fairness.
Natürlich gilt: Solche Erklärungen müssen sorgfältig überprüft werden, damit sie nicht selbst diskriminierende Logiken reproduzieren. Dafür braucht es Governance, Monitoring und klare Ausschlusskriterien (z. B. keine kontrafaktischen Aussagen über Geschlecht oder Herkunft).
Ein Thema, das im Publikum hängen blieb: Wie „schädlich“ ist KI für die Umwelt?
Der Energieverbrauch von KI-Systemen war eine der häufigsten Nachfragen im Anschluss an das Podium. Die kurze Antwort lautet: Es gibt noch keine exakten Zahlen. Schätzungen reichen von 0,3 bis 2,9 Wattstunden pro Chat-Anfrage – eine enorme Spannweite.
Warum? Weil der Verbrauch von vielen Variablen abhängt:
- Modellgröße
- Länge des Prompts
- Rechenzentrum & Kühlung
- Infrastruktur vs. reine Rechenoperation
- Transparenz der Anbieter (immer noch sehr begrenzt)
Was wir heute sicher sagen können:
- Eine einzelne Anfrage entspricht etwa
✔ 20–30 Sekunden Smartphone-Laden
✔ 1–2 Sekunden Fernseher
✔ einem winzigen Moment Ofenvorheizen - Global gesehen entsteht jedoch ein großer Effekt, weil Milliarden Anfragen pro Tag gestellt werden.
- Der größte Energieverbrauch liegt nicht in der Nutzung, sondern im Training der Modelle:
GPT-4 soll z. B. über 60 Millionen kWh benötigt haben – der Jahresverbrauch einer mittelgroßen Stadt.
Das zeigt: Wir brauchen einen bewussten Umgang – nicht Verzicht, aber informierte Entscheidungen.
Fazit: KI verändert Arbeit – aber wie sie das tut, entscheiden wir mit
Die Diskussion in Wien hat einmal mehr deutlich gemacht: Die Frage ist nicht, ob KI die Arbeitswelt transformiert, sondern wie wir diese Transformation gestalten.
Entscheidend werden dabei sein:
- Transparenz
- faire Datengrundlagen
- echte menschliche Kontrolle
- wirksame Governance
- nachhaltige Nutzung
Und vor allem das Bewusstsein, dass Technologie politisch, kulturell und sozial eingebettet ist und nie neutral.
Ich freue mich sehr über den Austausch am Event, über die engagierten Fragen aus dem Publikum und über die Veröffentlichung unseres Buchs.
Alle Infos zur Publikation: https://www.waxmann.com/buch200053
🤝 Jetzt durchstarten mit Servus Data
Sie möchten wissen, welche ihrer Tools überhaupt unter den AI Act fallen? Dann sind Sie bei uns genau richtig. Wir machen Transparenz verständlich und Compliance umsetzbar.
Vereinbaren Sie ein kostenloses und unverbindliches Erstgespräch mit unserer Geschäftsführerin Lejla Rizvanovik. Sie ist AI Privacy Expert, externe Datenschutzbeauftragte (ISO 17024, TÜV Süd), anerkannte Sachverständige für Datenschutz und KI Regulierung sowie zertifizierte Auditorin. Arbeitsschwerpunkte: Verbindung von Datenschutz, KI-Compliance und Automatisierung, Beratung und Unterstützung von nationalen und internationalen Unternehmen unterschiedlichster Branchen.


