O Artigo 14 não se implementa sozinho.
Os prazos de conformidade já começaram.
Se é uma equipa que desenvolve IA que toma decisões sobre pessoas (recrutamento, crédito, saúde, serviços públicos), o Regulamento Europeu de IA classifica o seu sistema como de alto risco.
Isso significa que precisa de provar que a supervisão humana está integrada no seu funcionamento, com evidências.
Isto aplica-se quer tenha sede na UE ou venda na UE.
O Regulamento é denso, as orientações são abstratas, e a lacuna entre "deveríamos fazer algo" e "isto é o que estamos realmente a construir" é onde a conformidade estagna.
É para isso que serve o Requisite. Os advogados especializados em conformidade dizem-lhe o que o Artigo 14 exige. O Requisite diz-lhe como construir isso.
O Requisite pontua as suas respostas, identifica as lacunas, mapeia-as às suas obrigações do Artigo 14 e dá-lhe acesso a padrões de supervisão que os seus programadores podem adaptar e sobre os quais podem construir.
Não é regulado? Se a sua IA afeta vidas reais, construir sistemas em que as pessoas possam confiar não é opcional.
Pode precisar do Requisite se:
- Está a implementar IA na UE mas não tem a certeza do que o Artigo 14 realmente exige do seu produto
- Sabe que tem lacunas de supervisão mas não sabe como encontrá-las ou corrigi-las
- A sua conversa sobre conformidade está bloqueada entre o jurídico e a engenharia sem ninguém a traduzir
- Não conseguiria apresentar evidências de supervisão humana se alguém lhas pedisse amanhã
- Precisa de orientação sobre conformidade que se ajuste a um orçamento de startup, não de empresa
Sobre o nome
W. Ross Ashby foi um psiquiatra britânico e pioneiro da cibernética. Na década de 1950, o seu trabalho sobre a Lei da Variedade Requisita provou que o controlo eficaz de sistemas complexos não depende de autoridade. Depende de conceber as condições certas para o julgamento humano.
Isso era verdade em 1956. Agora é essencial .