Reconhecimento facial é tema polêmico em projeto de lei para regulamentar IA

Nível de riscos e possibilidade de discriminação são pontos-chave na proposta em tramitação no Senado analisada pelo professor Juliano Maranhão

 23/02/2023 - Publicado há 1 ano
A menção ao reconhecimento facial como intolerável ocorre somente em espaço público, em tempo real – Foto Pixabay
Logo da Rádio USP

A proposta de regulamentação da inteligência artificial no Brasil é um texto substitutivo aos projetos de lei 5.051/2019, 21/2020 e 872/2021, que dizem respeito ao mesmo tema. A nova resolução foi analisada por uma comissão composta de juristas, dentre eles o professor Juliano Maranhão do Departamento de Filosofia e Teoria Geral do Direito da Faculdade de Direito da USP.

“Nós fizemos uma análise das propostas de outras experiências internacionais de legislação, principalmente a europeia, que é a mais robusta. E, então, nós colocamos um projeto que tem uma abordagem baseada em riscos“, explica ele. O projeto de lei está em tramitação no Senado e foi votado na Câmara dos Deputados em regime de urgência.

Avaliação de riscos

“A intervenção e a regulação das restrições são maiores conforme o grau de risco da aplicação da inteligência artificial”, comenta o professor. O intuito dessa ação é buscar melhores práticas para mitigar o nível elevado do risco da IA, dependendo de seu uso, mas preservando os benefícios dessa tecnologia.

Juliano Maranhão – Foto: IEA USP

Um dos temas mais discutidos foi o reconhecimento facial: “É um tema muito polêmico, foi um dos temas que nós mais discutimos porque ela entra dentro de uma categoria, em algumas propostas de legislação, como uma aplicação de risco intolerável e, portanto, deveria ser banida”, coloca Maranhão. 

No texto substitutivo, a menção ao reconhecimento facial como intolerável ocorre somente em espaço público, em tempo real: “Tal tecnologia traria uma espécie de ‘vigilância em massa’, ou seja, ainda que não haja qualquer suspeita ou algo contra um indivíduo que transita livremente na rua, ele seria reconhecido e teria seus trajetos registrados. Isso pode impedir a livre circulação nos espaços públicos”. Entretanto, a classificação de risco intolerável nessa circunstância não impede a aplicação do reconhecimento facial em casos que ele se enquadra somente como alto risco, por exemplo, pelas forças de segurança para identificação de foragidos e suspeitos.

Iniciativa

Para regular esses riscos, é preciso ter cuidado com a governança: “Governança significa uma série de procedimentos técnicos ou organizacionais nas pessoas que operam esse sistema para mitigar os riscos dessa tecnologia”, diz o professor. Ele ainda coloca que a inteligência artificial pode reproduzir discriminações estruturais presentes na sociedade por conta do banco de dados fornecido: “O processamento pela IA já, reconhecidamente, tem uma qualidade inferior para identificar com acurácia os negros em relação aos brancos e as mulheres em relação aos homens. Isso teve o seguinte impacto: na primeira experiência de uso nos diferentes Estados, nos casos de foragidos e procurados detectados, em 80% dos casos de erros estavam negros”. 

A dinamicidade da tecnologia é um problema na hora de elaborar uma regulação mais precisa, porque sempre há algo novo que pode tornar obsoletas as antigas colocações: “Nós não podemos, por exemplo, colocar na lei e fixar melhor as práticas que são as melhores práticas hoje. A tecnologia vai evoluir, os detalhes podem mudar, então nós não detalhamos quais são as melhores práticas porque elas podem se tornar irrelevantes”, diz Maranhão. Para o especialista, o que está em pauta é a obrigação de que as organizações, sejam aquelas que desenvolvem ou aquelas que aplicam, tenham comprometimento com melhores práticas para lidar com cada risco. É necessário contar com a autorregulação para que os diferentes setores que usam intensivamente inteligência artificial  possam ter códigos de conduta específicos, de modo que haja alguma flexibilidade também na regulação.

Existem organizações que discutem sobre melhores práticas para o uso de IA, análise de riscos e propostas de mitigação. Um exemplo é a Lawgorithm — criada por professores da Escola Politécnica, do Instituto de Matemática e Estatística, da Faculdade de Filosofia, Letras e Ciências Humanas e da Faculdade de Direito da USP.


Jornal da USP no Ar 
Jornal da USP no Ar no ar veiculado pela Rede USP de Rádio, de segunda a sexta-feira: 1ª edição das 7h30 às 9h, com apresentação de Roxane Ré, e demais edições às 14h, 15h, 16h40 e às 18h. Em Ribeirão Preto, a edição regional vai ao ar das 12 às 12h30, com apresentação de Mel Vieira e Ferraz Junior. Você pode sintonizar a Rádio USP em São Paulo FM 93.7, em Ribeirão Preto FM 107.9, pela internet em www.jornal.usp.br ou pelo aplicativo do Jornal da USP no celular. 


Política de uso 
A reprodução de matérias e fotografias é livre mediante a citação do Jornal da USP e do autor. No caso dos arquivos de áudio, deverão constar dos créditos a Rádio USP e, em sendo explicitados, os autores. Para uso de arquivos de vídeo, esses créditos deverão mencionar a TV USP e, caso estejam explicitados, os autores. Fotos devem ser creditadas como USP Imagens e o nome do fotógrafo.