Artykuł 14 sam się nie wdroży.

Terminy zgodności już się rozpoczęły.

Jeśli jesteście zespołem tworzącym AI, która podejmuje decyzje o ludziach (rekrutacja, kredyty, opieka zdrowotna, usługi publiczne), Akt UE o AI klasyfikuje Wasz system jako wysokiego ryzyka.

Oznacza to, że musicie udowodnić, że nadzór ludzki jest wbudowany w jego działanie, z dowodami.

Dotyczy to niezależnie od tego, czy macie siedzibę w UE, czy sprzedajecie w UE.

Akt jest gęsty, wytyczne są abstrakcyjne, a luka między „powinniśmy coś zrobić" a „to właśnie budujemy" jest miejscem, w którym zgodność się zatrzymuje.

Do tego służy Requisite. Prawnicy ds. zgodności mówią, czego wymaga Artykuł 14. Requisite mówi, jak to zbudować.

Requisite ocenia Twoje odpowiedzi, identyfikuje luki, mapuje je na Twoje obowiązki wynikające z Artykułu 14 i daje Ci dostęp do wzorców nadzoru, które Twoi programiści mogą dostosować i na których mogą budować.

Nie podlegasz regulacjom? Jeśli Twoja AI wpływa na życie ludzi, budowanie systemów, którym ludzie mogą zaufać, nie jest opcjonalne.

Możesz potrzebować Requisite, jeśli:

  • Wdrażasz AI w UE, ale nie masz pewności, czego Artykuł 14 faktycznie wymaga od Twojego produktu
  • Wiesz, że masz luki w nadzorze, ale nie wiesz, jak je znaleźć lub naprawić
  • Twoja rozmowa o zgodności utknęła między prawem a inżynierią bez nikogo, kto by tłumaczył
  • Nie byłbyś w stanie przedstawić dowodów nadzoru ludzkiego, gdyby ktoś zapytał Cię jutro
  • Potrzebujesz wskazówek dotyczących zgodności, które pasują do budżetu startupu, a nie przedsiębiorstwa

Skąd nazwa

W. Ross Ashby był brytyjskim psychiatrą i pionierem cybernetyki. W latach 50. jego praca nad Prawem Niezbędnej Różnorodności dowiodła, że skuteczna kontrola złożonych systemów nie polega na autorytecie. Chodzi o zaprojektowanie odpowiednich warunków dla ludzkiego osądu.

To było prawdą w 1956 roku. Teraz jest koniecznością .