EU AI Act: Neue KI-Regeln für Unternehmen ab 2025
Künstliche Intelligenz (KI) ist mittlerweile Teil unseres Alltags geworden. Sie wird die Arbeitswelt weiterhin und nachhaltig verändern. Doch die neuen technischen Möglichkeiten gehen mit rechtlichen Vorgaben einher.
Mit dem EU AI Act schafft die Europäische Union den weltweit ersten verbindlichen Rechtsrahmen für den Einsatz von KI. Das Regelwerk tritt schrittweise in Kraft und bringt für österreichische Unternehmen seit dem 1. Februar 2025 neue Verpflichtungen. Im Speziellen zielt der AI Act auf KI-gestützte Systeme ab, die ein hohes Risiko für Grundrechte und Sicherheit bergen. Doch was bedeutet das für Unternehmen konkret? Welche KI-Anwendungen dürfen künftig genutzt werden, welche werden verboten? Und welche Anforderungen müssen beim Einsatz künstlicher Intelligenz erfüllt werden? Wir haben die Antworten für Sie.
# Strikte Verbote ab Februar 2025
Der EU AI Act unterscheidet KI-Systeme nach deren Risikostufen. Als besonders kritisch werden Anwendungen eingeordnet, die als grundrechtsgefährdend oder ethisch nicht vertretbar gelten. Sie wurden deshalb mit 1. Februar 2025 EU-weit ausdrücklich untersagt:
- Social Scoring: die algorithmische Bewertung von Personen anhand ihres Verhaltens oder sozialer Merkmale, etwa zur Kreditwürdigkeitsprüfung durch Social-Media-Daten
- Biometrische Echtzeit-Identifikation im öffentlichen Raum: Automatisierte Gesichtserkennung zur Überwachung von Personen ist untersagt, es sei denn, sie erfolgt mit richterlicher Genehmigung im Rahmen schwerer Straftaten
- Predictive Policing: KI-gestützte Prognosen über mögliche Straftaten basierend auf demografischen oder geografischen Daten
- Emotionserkennung am Arbeitsplatz: Systeme, die Stimme, Mimik oder physiologische Reaktionen analysieren, um das Engagement oder die Stimmung von Mitarbeitenden zu bewerten
Bereits implementierte KI-Systeme müssen überprüft und gegebenenfalls außer Betrieb genommen werden. Unternehmen, die gegen diese Verbote verstoßen, haben mit erheblichen Strafen zu rechnen. Es drohen Bußgelder von bis zu 35 Millionen Euro oder bis zu sieben Prozent des weltweiten Jahresumsatzes.
# Schulungen als zentrale Anforderung
Neben den Verboten legt der EU AI Act großen Wert auf die Schulung und Qualifikation von Mitarbeitenden. Unternehmen, die KI-Systeme entwickeln, nutzen oder betreiben, haben dafür Sorge zu tragen, dass ihre Beschäftigten in den relevanten Anwendungsbereichen über das notwendige Fachwissen verfügen. Die Schulungspflicht trat am 1. Februar 2025 in Kraft und umfasst folgende Bereiche:
- Technische Grundlagen:
Funktionsweise von Machine Learning, Datenqualität und Grenzen von Modellen
- Rechtliche Rahmenbedingungen: EU-Grundrechtecharta, DSGVO und Antidiskriminierungsgesetze
- Anwendungsspezifische Risiken: Diskriminierung, Fehlerkennungen und branchenspezifische Herausforderungen
Unternehmen sind verpflichtet, Schulungsmaßnahmen zu dokumentieren und Nachweise mindestens fünf Jahre aufzubewahren. Besonders bewährt haben sich E-Learning-Kurse mit Zertifikaten, Workshops oder interaktive Trainings. Die Wirtschaftskammer Österreich (WKO) bietet mit dem KI-Führerschein eine praxisnahe Weiterbildungsmöglichkeit.
Diese neue Schulungspflicht umfasst jedoch nicht nur eigene Mitarbeitende, sondern ebenso externe Zulieferer. Unternehmen müssen also vertraglich sicherstellen, dass auch KI-Lieferanten die geforderten Qualifikationen nachweisen können.>
# Generative KI: Neue Transparenzpflichten ab August 2026
Ein weiterer zentraler Punkt des EU AI Act betrifft den Einsatz von generativer KI, also von Systemen, die Texte, Bilder oder Videos eigenständig erstellen. Ab dem 1. August 2026 gelten diesbezüglich zusätzliche Kennzeichnungspflichten:
- Transparenz bei KI-generierten Inhalten: Unternehmen müssen klar ersichtlich angeben, wenn Texte, Bilder, Videos oder Audiodateien mit KI-Systemen erstellt wurden. Ein Beispiel ist die verpflichtende Kennzeichnung „KI-generierter Artikel“ oder „Bild erstellt mit KI“.
- Hinweise bei Mensch-Maschine-Interaktionen: Nutzer müssen erkennen, wenn sie mit einer KI kommunizieren, beispielsweise in Chatbots oder automatisierten Kundenservices.
- Einsatz von Wasserzeichen: KI-generierte Inhalte müssen maschinell erkennbare Marker enthalten, um ihren Ursprung eindeutig nachzuweisen.
Ausnahmen wurden für kreative Inhalte wie Satire oder fiktionale Werke vorgesehen. Bei Mischformen – wenn beispielsweise KI-generierte Texte nachträglich von Menschen bearbeitet wurden – gilt, dass der menschliche Bearbeitungsanteil erkennbar sein muss, zum Beispiel durch einen Hinweis wie „60 % menschlich redigiert“.
# Österreichspezifische Vorgaben und Fördermöglichkeiten
Die nationale Aufsicht über die Einhaltung des EU AI Act übernimmt in Österreich das Bundesministerium für Klimaschutz, Umwelt, Energie, Mobilität, Innovation und Technologie.
Unternehmen können sich bei der RTR-Servicestelle über Compliance- und Meldepflichten informieren.
Um Unternehmen die Implementierung des Regelwerks zu erleichtern, gibt es von staatlicher Seite finanzielle Unterstützungen, insbesondere für KMU. Förderprogramme wie die FFG-Förderung für Risikomanagementsysteme erleichtern die Umsetzung der neuen Vorgaben.
Die WKO stellt zudem praxisorientierte Leitfäden, kostenlose Vorlagen für KI-Richtlinien sowie Schulungskonzepte zur Verfügung.
# Fazit: KI-Compliance als strategischer Vorteil
Der EU AI Act zeigt deutlich, dass KI keine rein technologische Angelegenheit mehr ist. Sie wird zur Managementaufgabe, die strategische Entscheidungen und eine frühzeitige Vorbereitung erfordert.
Unternehmen, die in Schulungen, klare Prozesse und ethische Standards investieren, profitieren nicht nur von rechtlicher Sicherheit, sondern stärken zudem das Vertrauen von Kunden und Geschäftspartnern.
Mit der schrittweisen Umsetzung des AI Act bis 2027 entsteht ein europäischer Standard für vertrauenswürdige KI-Systeme. Unternehmen, die die neuen Anforderungen aktiv zu erfüllen versuchen, positionieren sich als Vorreiter bei der sicheren und ethischen Nutzung künstlicher Intelligenz.
# Wie Unternehmen die neuen Anforderungen umsetzen können
Um den neuen Regelungen gerecht zu werden, sollten Unternehmen frühzeitig Maßnahmen ergreifen. Ein strukturiertes Vorgehen erleichtert die Umsetzung:
1. KI-Inventur und Risikobewertung
• alle im Unternehmen eingesetzten KI-Systeme erfassen
• Systeme nach Risikostufen klassifizieren: verboten, hohes Risiko, begrenztes Risiko, minimales Risiko
• bestehende Systeme auf Konformität mit dem EU AI Act prüfen
2. Schulungskonzepte entwickeln
• Vorlagen und Schulungsmaterialien der WKO nutzen
• Schulungsnachweise zentral archivieren
• KI-Weiterbildungen in bestehende Schulungsprogramme integrieren, etwa in Datenschutzschulungen
3. Interne Richtlinien implementieren
• KI-Guidelines für den Einsatz generativer KI erarbeiten, z.B. für Marketing oder Kundenservice
• Verantwortliche für KI-Compliance benennen
4. Dokumentationssysteme etablieren
• Register für KI-Schulungen und Risikobewertungen führen
• Herkunft von Trainingsdaten bei Hochrisiko-Anwendungen dokumentieren
Ihr Fidas Team