DSGVO als schärfere Klinge bei KI im Alltag

Die schärfste KI-Regelung im Alltag vieler Unternehmen steht nicht im AI Act. Sie steht in der DSGVO und gilt seit acht Jahren.

Gemeint ist nicht der Hochrisiko-Bereich des AI Acts. Dort schlägt er mit höheren Bußen zu. Gemeint ist der Alltag: Dokumente in ChatGPT, Claude oder Copilot, Mitarbeiter die auf eigene Faust loslegen, keine klare Klammer drum.

Der Grund: Fast alle großen KI-Modelle werden außerhalb der EU betrieben. Sobald personenbezogene Daten in solche Systeme wandern, steht eine Drittlandtransfer-Prüfung an. Mit sauberem Enterprise-Setup, einer Auftragsverarbeitungsvereinbarung (AVV) und EU-Region lösbar. Ohne (und das ist der Regelfall bei Shadow-IT) nicht.

Gängige Sortierlogik beim AI Act lautet: "Wir machen kein CV-Screening, kein Bonitätsscoring, kein KI-gestütztes Entscheidungssystem, also kein Hochrisiko." Das stimmt meistens.

Was dabei übersehen wird: Der AI Act klassifiziert das System, die DSGVO klassifiziert die Daten, die reinfließen. Die meisten KI-Compliance-Baustellen im Mittelstand sind heute DSGVO-Themen mit KI-Tools, nicht umgekehrt.

Ich habe einen Selbsttest offen auf die Webseite gestellt: AI-Act-Klasse und DSGVO-Dimension in einem Durchgang. Ohne Anmeldung, ohne E-Mail.

https://sixtyfour.solutions/eu-ai-act-selbsttest/

Wer Lücken oder schärfere Fragen sieht: gerne als Kommentar.

← Alle Beobachtungen