Anwendbarkeit & Rolle
Fallen Sie überhaupt unter den AI Act, und in welcher Rolle — Anbieter, Betreiber, Importeur oder Händler? Die Rolle bestimmt, welche Pflichten greifen.
Der EU AI Act ist keine Empfehlung, sondern geltendes Recht. Teile sind bereits in Kraft — verbotene Praktiken, AI-Literacy, GPAI-Governance — die Hauptregelung für Hochrisiko-KI folgt. Dieser Selbsttest macht sichtbar, wo Ihr Unternehmen heute steht, bevor Sie mit einer Kanzlei weiterarbeiten.
Ein hoher Score heißt nicht, dass Sie „fertig“ sind. Er heißt, dass die Grundpflichten operationalisiert sind. Ein niedriger Score heißt umgekehrt nicht Panik, sondern: Klarheit schaffen, Prioritäten setzen, juristisch absichern — in dieser Reihenfolge.
Fallen Sie überhaupt unter den AI Act, und in welcher Rolle — Anbieter, Betreiber, Importeur oder Händler? Die Rolle bestimmt, welche Pflichten greifen.
Haben Sie alle eingesetzten KI-Systeme erfasst — inklusive eingebetteter KI in Drittanwendungen — und sauber nach Risikoklassen eingeordnet?
Emotionserkennung am Arbeitsplatz, Social Scoring, manipulative Techniken — seit 2025 scharf, mit der höchsten Sanktionsstufe. Sicher ausgeschlossen?
Risikomanagement, Datenqualität, technische Dokumentation, Logging, menschliche Aufsicht — wenn Ihre Systeme in Anhang-III-Bereiche fallen, greifen die schärfsten operativen Pflichten.
Erkennen Nutzer Ihre Chatbots als KI, kennzeichnen Sie KI-generierte Inhalte — und informieren Sie bei Emotionserkennung oder biometrischer Kategorisierung?
Befähigung statt einmaliger Schulung, klare Verantwortlichkeiten, funktionierender Prozess für Vorfallmeldungen — Pflicht seit Februar 2025.
Welche Foundation Models stecken in Ihren Systemen — auch indirekt über SaaS? Regeln Ihre Verträge, was Sie zur Erfüllung Ihrer Betreiberpflichten brauchen?
Bewerten Sie jede Aussage mit Nein, Teilweise oder Ja. Der Test berechnet daraus Ihren Score und zeigt, wo Ihre größten Lücken liegen.
Dieser Selbsttest orientiert sich an der Verordnung (EU) 2024/1689 (EU AI Act), den Leitlinien des EU AI Office (Prohibited Practices Guidelines Februar 2025, GPAI Code of Practice Juli 2025), der ALTAI-Assessment-List der High-Level Expert Group on AI, dem EU AI Act Compliance Checker des Future of Life Institute sowie an praxistauglichen Compliance-Frameworks aus Deloitte Trustworthy AI und PwC Responsible AI Toolkit. Als übergreifende Kontrollarchitektur wurde das NIST AI Risk Management Framework herangezogen. Die Auswahl der Fragen folgt dem gleichen Prinzip wie beim KI-Readiness-Selbsttest: wenige, scharf gestellte Items pro Dimension — keine vollständige Compliance-Prüfung, sondern eine ehrliche Standortbestimmung in fünf bis zehn Minuten.
Die entscheidende Frage ist nicht „compliant oder nicht", sondern: Wo stehen Sie heute — und welchen Schritt macht als Nächstes Sinn? Auch bei hohem Score bleibt die externe Prüfung die Empfehlung.
Hoher Klärungsbedarf. Das Compliance-Risiko ist heute real und nicht beziffert. Vor jeder weiteren KI-Initiative gehört ein externer juristischer Check an den Anfang, nicht ans Ende.
Auf gutem Weg, aber mit Lücken. Die Grundstruktur steht, aber zentrale Pflichten — typischerweise Inventar, Hochrisiko-Dokumentation und AI-Literacy — sind noch nicht belastbar. Die zwei schwächsten Dimensionen schließen, bevor neue Use Cases aufgesetzt werden.
Belastbare Compliance-Basis. Die Pflichten sind im Kern operationalisiert. Nächster Schritt: externer Compliance-Audit durch spezialisierte Kanzlei oder Wirtschaftsprüfung, plus laufendes Monitoring und saubere Vertragsführung mit GPAI-Anbietern.
Ausgereifte Compliance. Auch hier bleibt externe Prüfung in angemessenen Abständen Standard — aber der Fokus liegt auf Weiterentwicklung (neue Guidance, neue Systeme, neue GPAI-Anbieter), nicht mehr auf Grundaufbau.
Dieser Test ist bewusst eng am Gesetzestext geführt. Wenn Sie parallel strategisch prüfen wollen, wie KI-ready Ihr Unternehmen insgesamt ist — Problemfit, Daten, Prozesse, Führung, Talent, Wertbeitrag und Governance — empfiehlt sich der Schwestertest.