Regulierung4 Min. lesen

EU AI Act: Ab August 2026 gelten die zentralen Pflichten — das müssen DACH-Unternehmen wissen

Der EU AI Act tritt in seiner wichtigsten Phase in Kraft. Wir erklären, was die neuen Verpflichtungen für Unternehmen im DACH-Raum konkret bedeuten.

Vorbi.ai Redaktion·Quelle: EU AI Act Observatory
Teilen:

::: takeaways

  • Ab August 2026 gelten die zentralen EU AI Act Pflichten für die meisten KI-Systeme
  • KMU mit Standard-Chatbots oder Workflow-Automatisierung sind meist nicht direkt betroffen
  • KI-gestützte HR-Tools (z. B. CV-Screening) können als Hochrisiko eingestuft werden
  • AI Act und DSGVO ergänzen sich — beide Regelwerke müssen beachtet werden

:::

Was ab August 2026 gilt

Der EU AI Act ist seit August 2024 in Kraft — aber die eigentlichen Pflichten für Unternehmen werden schrittweise eingeführt. Ab August 2026 treten die zentralen Anforderungen für die meisten KI-Systeme in Kraft. Für Unternehmen, die KI einsetzen oder entwickeln, wird es jetzt ernst.

Was den DACH-Markt betrifft

Hochrisiko-KI-Systeme

Systeme, die in Bereichen wie Personalentscheidungen, Kreditvergabe, biometrische Identifizierung oder kritische Infrastruktur eingesetzt werden, gelten als "hochriskant" und unterliegen strengen Anforderungen:

  • Verpflichtende Risikobewertung vor dem Einsatz
  • Transparenzpflichten gegenüber Nutzern
  • Menschliche Aufsicht muss gewährleistet sein
  • Technische Dokumentation und Protokollierung

Transparenzpflichten für alle KI-Systeme

Auch für "normale" KI-Systeme — wie Chatbots oder automatisierte Entscheidungshilfen — gelten Transparenzpflichten: Nutzer müssen wissen, dass sie mit einer KI interagieren.

Was explizit verboten ist

Seit Februar 2025 sind bestimmte KI-Anwendungen in der EU verboten: Social Scoring durch Behörden, manipulative KI-Systeme, Echtzeit-Gesichtserkennung in öffentlichen Räumen durch Strafverfolgungsbehörden (mit engen Ausnahmen).

Was das für kleine und mittlere Unternehmen bedeutet

Für die meisten KMU im DACH-Raum sind die direkten Verpflichtungen überschaubar — vorausgesetzt, sie setzen keine Hochrisiko-KI ein. Ein KI-Chatbot für den Kundenservice oder ein Workflow-Automatisierungstool für interne Prozesse fällt in der Regel nicht unter die strengen Kategorien.

Aber Vorsicht: KI-gestützte HR-Tools (z. B. automatisiertes CV-Screening) können unter Hochrisiko fallen. Wer solche Systeme einsetzt oder plant einzusetzen, sollte jetzt handeln.

Wichtig
Bei Unsicherheit über die Risikoeinordnung deines KI-Systems gilt: Im Zweifel frühzeitig rechtliche Beratung einholen. Die Bußgelder bei Verstößen können bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes betragen.

Praktische Schritte für betroffene Unternehmen

1. Inventar erstellen: Welche KI-Systeme setze ich ein? Entwickle ich selbst?

2. Risikokategorisierung: Fallen diese Systeme unter Hochrisiko oder nicht?

3. Compliance-Lücken identifizieren: Was fehlt noch (Dokumentation, Transparenzhinweise, Risikobewertung)?

4. Externe Beratung bei Unklarheit: Bei komplexen Systemen lohnt sich ein Experte

DSGVO und AI Act: Zusammenspiel beachten

Der EU AI Act ergänzt die DSGVO — er ersetzt sie nicht. Unternehmen müssen beide Regelwerke im Blick behalten. Besonders bei KI-Systemen, die personenbezogene Daten verarbeiten, überschneiden sich die Anforderungen.

Wenn du wissen möchtest, wie DSGVO-konforme KI-Lösungen in deinem Unternehmen aussehen, erklärt unsere Seite zur KI-Beratung & Strategie, wie wir das umsetzen.

#eu-ai-act#dsgvo#compliance#regulierung#dach
Teilen:

Du willst wissen, wie diese Entwicklung dein Unternehmen betrifft?

Kostenlose Beratung — wir zeigen dir, was KI konkret für deinen Betrieb bedeutet.