Artikel 14 setzt sich nicht von selbst um.
Die Compliance-Fristen haben begonnen.
Wenn Sie ein Team sind, das KI entwickelt, die Entscheidungen über Menschen trifft (Einstellung, Kredit, Gesundheitsversorgung, öffentliche Dienstleistungen), klassifiziert der EU AI Act Ihr System als Hochrisiko.
Das bedeutet, Sie müssen nachweisen, dass menschliche Aufsicht in die Funktionsweise integriert ist, mit Belegen.
Das gilt unabhängig davon, ob Sie in der EU ansässig sind oder dort verkaufen.
Das Gesetz ist komplex, die Leitlinien abstrakt, und die Lücke zwischen „wir sollten etwas tun" und „das bauen wir tatsächlich" ist der Punkt, an dem Compliance ins Stocken gerät.
Dafür gibt es Requisite. Compliance-Juristen sagen Ihnen, was Artikel 14 verlangt. Requisite zeigt Ihnen, wie Sie es umsetzen.
Requisite bewertet Ihre Antworten, identifiziert die Lücken, ordnet sie Ihren Artikel-14-Verpflichtungen zu und gibt Ihnen Zugang zu Aufsichtsmustern, die Ihre Entwickler anpassen und darauf aufbauen können.
Nicht reguliert? Wenn Ihre KI reale Auswirkungen auf Menschen hat, ist der Aufbau vertrauenswürdiger Systeme nicht optional.
Sie benötigen Requisite möglicherweise, wenn:
- Sie KI in der EU einsetzen, aber nicht sicher sind, was Artikel 14 konkret von Ihrem Produkt verlangt
- Sie wissen, dass Sie Aufsichtslücken haben, aber nicht wissen, wie Sie diese finden oder beheben können
- Ihre Compliance-Diskussion zwischen Recht und Technik feststeckt, ohne dass jemand übersetzt
- Sie morgen keine Nachweise für menschliche Aufsicht vorlegen könnten, wenn jemand danach fragt
- Sie Compliance-Beratung benötigen, die zu einem Startup-Budget passt, nicht zu einem Unternehmensbudget
Über den Namen
W. Ross Ashby war ein britischer Psychiater und Kybernetik-Pionier. In den 1950er Jahren bewies er mit seinem Gesetz der erforderlichen Varietät, dass die wirksame Steuerung komplexer Systeme nicht auf Autorität beruht. Es geht darum, die richtigen Bedingungen für menschliches Urteilsvermögen zu schaffen.
Das galt 1956. Heute ist es unverzichtbar .