Segundo a União Europeia (UE), “A utilização da inteligência artificial (IA) na UE será regulada pela lei da IA, a primeira lei abrangente do mundo sobre a IA”.
Este regulamento será certamente uma referência para outros estados ou países.
Eis as regras, distribuídas por vários cenários (Riscos):
Risco inaceitável
Os sistemas de IA de risco inaceitável são sistemas considerados uma ameaça para as pessoas e serão proibidos.
Estes sistemas incluem:
- manipulação cognitivo-comportamental de pessoas ou grupos vulneráveis específicos: por exemplo, brinquedos ativados por voz que incentivam comportamentos perigosos nas crianças
- pontuação social: classificação de pessoas com base no comportamento, estatuto socioeconómico, caraterísticas pessoais
- sistemas de identificação biométrica em tempo real e à distância, como o reconhecimento facial
Podem ser permitidas algumas exceções. Por exemplo, os sistemas de pós-identificação biométrica à distância, em que a identificação ocorre após um atraso significativo, só serão permitidos para a repressão de crimes graves e após aprovação do tribunal.
Risco elevado
Os sistemas de IA que afetam negativamente a segurança ou os direitos fundamentais serão considerados de elevado risco e serão divididos em duas categorias.
- Sistemas de IA que são utilizados em produtos abrangidos pela legislação da UE em matéria de segurança dos produtos. Isto inclui brinquedos, aviação, automóveis, dispositivos médicos e elevadores.
- Sistemas de IA que se enquadram em oito áreas específicas que terão de ser registados numa base de dados da UE:
- identificação biométrica e categorização de pessoas singulares
- gestão e funcionamento de infraestruturas essenciais
- educação e formação profissional
- emprego, gestão dos trabalhadores e acesso ao trabalho por conta própria
- acesso e usufruto de serviços privados essenciais e de serviços e benefícios públicos
- aplicação da lei
- gestão da migração, do asilo e do controlo das fronteiras
- assistência na interpretação jurídica e na aplicação da lei.
Todos os sistemas de IA de risco elevado serão avaliados tanto antes de serem colocados no mercado como durante todo o seu ciclo de vida.
Inteligência artificial generativa
A IA generativa, tal como o ChatGPT, teria de cumprir os requisitos de transparência:
- divulgar que o conteúdo foi gerado pela IA
- conceber o modelo para evitar que este gere conteúdos ilegais
- publicar resumos dos dados protegidos por direitos de autor utilizados para a formação
Risco limitado
Os sistemas de inteligência artificial de risco limitado devem cumprir requisitos mínimos de transparência que permitam aos utilizadores tomar decisões informadas. Depois de interagir com as aplicações, o utilizador pode decidir se quer continuar a utilizá-las.
Os utilizadores devem ser alertados para o facto de estarem a interagir com a IA.
Isto diz respeito também aos sistemas de IA que geram ou manipulam conteúdos de imagem, áudio ou vídeo (por exemplo, os deepfakes).
Saber mais sobre a IA: tutor.hugof.pt/category/software/inteligencia-artificial