Artikel 14 implementeert zichzelf niet.

De compliancedeadlines zijn begonnen.

Als u een team bent dat AI ontwikkelt die beslissingen neemt over mensen (werving, krediet, gezondheidszorg, overheidsdiensten), classificeert de EU AI Act uw systeem als hoog-risico.

Dat betekent dat u moet aantonen dat menselijk toezicht is ingebouwd in de werking ervan, met bewijs.

Dit geldt ongeacht of u in de EU gevestigd bent of daar verkoopt.

De wet is complex, de richtlijnen zijn abstract, en de kloof tussen "we zouden iets moeten doen" en "dit is wat we daadwerkelijk aan het bouwen zijn" is waar compliance vastloopt.

Daarom is er Requisite. Compliance-juristen vertellen u wat Artikel 14 vereist. Requisite vertelt u hoe u het bouwt.

Requisite scoort uw antwoorden, identificeert de hiaten, koppelt ze aan uw Artikel 14-verplichtingen en geeft u toegang tot toezichtspatronen die uw ontwikkelaars kunnen aanpassen en waarop ze kunnen voortbouwen.

Niet gereguleerd? Als uw AI levens raakt, is het bouwen van systemen waar mensen op kunnen vertrouwen niet optioneel.

U heeft Requisite mogelijk nodig als:

  • U AI inzet in de EU maar niet zeker weet wat Artikel 14 daadwerkelijk van uw product vereist
  • U weet dat u hiaten in het toezicht heeft maar niet weet hoe u deze kunt vinden of oplossen
  • Uw compliancegesprek vastzit tussen juridisch en technisch zonder dat iemand vertaalt
  • U morgen geen bewijs van menselijk toezicht zou kunnen leveren als iemand erom vraagt
  • U compliancebegeleiding nodig heeft die past bij een startup-budget, niet bij een ondernemingsbudget

Over de naam

W. Ross Ashby was een Britse psychiater en pionier in de cybernetica. In de jaren vijftig bewees zijn werk over de Law of Requisite Variety dat effectieve beheersing van complexe systemen niet draait om autoriteit. Het draait om het ontwerpen van de juiste condities voor menselijk oordeelsvermogen.

Dat was waar in 1956. Het is nu essentieel .