No começo de dezembro, após exaustiva discussão, o Conselho da União Europeia aprovou acordo com os Estados-membros que estabelece diretrizes para o uso de inteligência artificial em determinados setores econômicos e também pelos poderes públicos. O acordo foi o primeiro do tipo e deve tensionar a discussão de legislações sobre o tema em grandes mercados digitais, como os Estados Unidos e o Brasil.
8 de janeiro de 2024
A norma vem na esteira de outra, a dos sites de busca, também regulados pela UE. Assim como no caso das inteligências artificiais, a legislação é mais restritiva em relação à que tramita no Brasil (PL 2630/2020). Entre outros pontos, a Europa já delineou as responsabilidades das empresas de tecnologia pelos conteúdos publicados, além de reconhecer o direito ao esquecimento (tratado como inconstitucional no Brasil).
Em relação à IA na Europa, o texto começou a ser discutido em 1º de outubro de 2020. Descrito como Ato da Inteligência Artificial, o documento aprovado pelos países classifica os usos da IA com padrões de risco. Jogos eletrônicos, por exemplo, são classificados como de “risco mínimo”, enquanto casos de uso no transporte (veículo autônomo) e no recrutamento de trabalhadores são classificados como “alto risco”.
Nível de risco | Atividade | Situação |
Mínimo | Video games, filtros de spam | Não serão regulados |
Limitado | Chatbots | Autorizados, mas devem obedecer a critérios mínimos de transparência |
Alto | Uso em transporte, exames médicos, recrutamento, concessão de empréstimos | Devem se adequar a critérios rígidos para que possam ser oferecidos nos países da União Europeia |
Inaceitável | Reconhecimento facial, manipulação comportamental, monitoramento de emoções no trabalho e nas escolas | Proibido |
A normativa aprovada pela UE tem pontos semelhantes ao projeto mais avançado sobre o tema que tramita no Legislativo brasileiro, de autoria do presidente do Senado, Rodrigo Pacheco (PSD). Há, no entanto, divergências, como em pontos relacionados à segurança pública.
O acordo assinado pelos países-membros da UE considera “inaceitável” o uso de reconhecimento facial e emocional, com exceções (uso pelas autoridades policiais, por exemplo). A “manipulação cognitivo-comportamental, o policiamento preventivo, o reconhecimento de emoções no local de trabalho e instituições educacionais e a pontuação social” estão proibidos nos países signatários.
No Brasil, já há algum tempo há adoção do reconhecimento facial nas esfera pública e privada. O mecanismo é usado como credencial de entrada em condomínios e estádios de futebol, por exemplo, além de ser utilizado por algumas polícias estaduais para fins de persecução criminal.
Na cidade de São Paulo, em meio a um imbróglio jurídico, a prefeitura firmou acordo milionário para instalação de 20 mil câmeras com reconhecimento, mesmo sem regulamentação sobre o tema.
Também baseada em sistema de classificação de risco, a proposta que tramita no Congresso não dá diretrizes específicas sobre o uso desse tipo de tecnologia no âmbito da segurança pública. O texto classifica esse uso como de “risco excessivo”.
No artigo 15, o texto estabelece que é “permitido o uso de sistemas de identificação biométrica à distância, de forma contínua em espaços acessíveis ao público, quando houver previsão em lei federal específica e autorização judicial em conexão com a atividade de persecução penal individualizada”, nos casos de crime em flagrante, busca de desaparecidos e persecução de crimes cuja pena máxima seja superior a dois anos.
No §2º do artigo 7, faz menção genérica ao reconhecimento facial: “Pessoas expostas a sistemas de reconhecimento de emoções ou a sistemas de categorização biométrica serão informadas sobre a utilização e o funcionamento do sistema no ambiente em que ocorrer a exposição”.
Autoridade competente
Para especialistas entrevistados pela revista eletrônica Consultor Jurídico, dois pontos atravancam a legislação que tramita no Congresso: a necessidade de criação de um órgão controlador para gerir — e fiscalizar — as regras de IA e o complexo emaranhado de atores que estão interessados, ou não, na discussão sobre o tema.
“Historicamente, o Brasil tem desempenhado um papel relevante nas discussões sobre a regulamentação de tecnologias emergentes, no entanto, a aprovação efetiva do PL depende de vários fatores, incluindo a dinâmica política e o interesse governamental, além da complexidade inerente ao próprio processo legislativo”, diz Ana Beatriz Couto, CEO do hub jurídico Sem Processo.
Em relação à autoridade que será desginada, a situação é turva. “Aqui ainda não está bem definido quem será a autoridade. Alguns defendem que a ANPD tenha esse papel, outros entendem que uma abordagem mais setorizada seria mais interessante”, diz Adriana Rollo, sócia de proteção de dados do escritório BZCP Advogados.
A legislação europeia, diz Adriana, foi também mais eficiente para designar detalhes do que seria o sandbox regulatório — espécie de espaço seguro para testes de tecnologias que envolvem IA. “A legislação europeia também prevê um ambiente de teste, mas traz mais especificidades para o desenvolvimento do sandbox, com previsões de obrigações específicas para as autoridades, por exemplo. Aqui no Brasil não foi desenvolvido ainda como funcionará esse sandbox“, diz a advogada.
Para ela, a classificação por risco é importante, mas é necessário detalhá-la para que o desenvolvimento de novas tecnologias no país não seja prejudicado.
“Há uma dificuldade do legislador brasileiro, e no mundo inteiro, de antecipar quais serão os grandes riscos e quais usos que trarão prejuízos. Então, as leis acabam sendo mais genéricas, na medida do que é possível deixar claro em relação aos principais fundamentos, diretrizes e direitos das pessoas envolvidas, mas sem entrar no detalhe de como será feito o uso e desenvolvimento de sistema de IA.”
Fonte: Revista Consultor Jurídico