Entretanto, na era digital, onde algoritmos e sistemas de inteligência artificial (IA) desempenham um papel cada vez mais central na tomada de decisões, surge a necessidade de reavaliar e expandir esse conceito, adaptando-o às novas realidades tecnológicas, onde a intervenção humana pode ser mínima ou inexistente.
O que está em questão, de forma não tão evidente, é a evolução do próprio conceito de justiça e sua aplicação em um mundo onde as decisões podem ser tomadas automaticamente, sem a intervenção direta de humanos, mas com impactos profundos sobre as vidas e direitos das pessoas. Nesse contexto, o devido processo tecnológico emerge como uma extensão necessária do devido processo legal, exigindo que as garantias de contestação sejam adaptadas aos desafios e riscos trazidos pelas tecnologias digitais. Esse novo enfoque demanda a integração de princípios como transparência, explicabilidade e responsabilização nos processos de tomada de decisão automatizados, para assegurar que os direitos dos cidadãos sejam efetivamente protegidos.
No entanto, não se pode tratar desse tema sem também considerar a legitimidade das decisões automatizadas, que está diretamente ligada à capacidade dessas tecnologias de atender às expectativas de justiça e equidade estabelecidas pelo devido processo tradicional. A complexidade dos algoritmos, muitas vezes opacos, e a ausência de mecanismos eficazes de contestação colocam em risco essa legitimidade, podendo comprometer a confiança do público nas instituições que adotam essas tecnologias. Danielle Keats Citron argumenta que “o uso de sistemas de inteligência artificial em processos legais exige uma abordagem regulatória que assegure não apenas a eficácia e eficiência, mas também a transparência, a explicabilidade e a accountability dos algoritmos”. Essa afirmação destaca a importância de que as decisões automatizadas sejam legitimadas por processos justos, que respeitem os direitos dos indivíduos.
Exemplos podem ajudar a demonstrar o quanto a legitimidade de decisões automatizadas é necessária. Imagine, por exemplo, um candidato a emprego que foi rejeitado automaticamente por um sistema de triagem de currículos, sem que suas qualificações específicas ou experiências únicas fossem devidamente consideradas pelo algoritmo. Ou um paciente cujo plano de tratamento foi negado por uma IA utilizada por uma seguradora de saúde, com base em uma análise automatizada de risco, sem uma revisão personalizada do seu caso clínico. Ainda, uma motorista que recebeu uma multa por infração de trânsito emitida automaticamente por um sistema de monitoramento de tráfego, sem a possibilidade de contestar as circunstâncias que poderiam justificar a situação.
Em todos esses casos, a falta de transparência e a ausência de mecanismos de recurso comprometem a legitimidade das decisões automatizadas. De fato, a maioria das instituições precisa de legitimidade para funcionar efetivamente, o que exige que as pessoas acreditem que a instituição está alinhada com os valores sociais, afinal, qualquer poder, quando percebido seu exercício como ilegítimo, tende a ser rejeitado pela sociedade.
Essa questão da legitimidade torna-se ainda mais complexa no contexto da IA, em que as decisões são frequentemente tomadas por algoritmos que operam de forma opaca, como caixas-pretas, sem transparência quanto aos critérios utilizados. A dificuldade em compreender e questionar essas decisões levanta sérias preocupações sobre a justiça e a equidade dos processos automatizados. Assim, a legitimidade das decisões automatizadas não pode ser assegurada apenas pela precisão técnica dos algoritmos, mas também pela garantia de que essas decisões são tomadas em conformidade com os princípios do devido processo tecnológico e que há mecanismos de recurso adequados para os afetados.
O Projeto de Lei 2338/2023, que propõe a regulação do uso de IA no Brasil, adota uma abordagem baseada em riscos, categorizando os sistemas de IA conforme o impacto potencial sobre os direitos dos cidadãos.
Podemos dizer que o Art. 6º do PL 2338/23 traz o cerne do devido processo tecnológico: “Art. 6º: Pessoa ou grupo afetado por sistema de IA que produza efeitos jurídicos relevantes ou de alto risco tem os seguintes direitos: I – direito à explicação sobre a decisão, recomendação ou previsão feitas pelo sistema; II – direito de contestar e de solicitar a revisão de decisões, recomendações ou previsões de sistema de IA; e III – direito à revisão humana das decisões, levando-se em conta o contexto, risco e o estado da arte do desenvolvimento tecnológico. Parágrafo único. A explicação solicitada no âmbito do inciso I, respeitando o segredo comercial e industrial, incluirá informações suficientes, adequadas e inteligíveis, nos termos do Regulamento.”
Este artigo reforça e explicita o devido processo tecnológico ao assegurar que, mesmo em decisões automatizadas, a responsabilidade final não pode ser delegada ao algoritmo, mas deve ser assumida por uma pessoa ou entidade juridicamente responsável.
No entanto, a implementação prática dessa responsabilidade levanta questões complexas. A transferência de responsabilidade para uma entidade humana em um contexto em que as decisões são geradas por sistemas altamente complexos e, muitas vezes, incompreensíveis até mesmo para seus criadores, impõe um fardo significativo sobre as partes responsáveis. Isso levanta preocupações sobre a capacidade das empresas e indivíduos de realmente compreender e monitorar as decisões dos algoritmos que utilizam. Para que essa supervisão seja eficaz, é necessário que os sistemas de IA sejam projetados de maneira a permitir transparência e compreensibilidade, de modo que os responsáveis possam exercer uma supervisão genuína e não meramente nominal.
Outro ponto crítico está relacionado à necessidade de “transparência e explicabilidade” nos sistemas de IA, no sentido de que os usuários têm o direito de conhecer os critérios utilizados pelos sistemas de IA para tomar decisões que os afetem. Embora essa exigência seja exatamente o que se pretende levantar ao tratar do devido processo tecnológico, há desafios significativos na aplicação prática deste artigo. Neste caso, cabe destacar o questionamento que Cynthia Rudyn traz a respeito dos métodos que tentam explicar os modelos caixa-preta, ressaltando o trade-off entre precisão e interpretabilidade. A partir dessa crítica, Rudyn defende que o mais importante é criar modelos que são, antes de tudo, interpretáveis. Nada simples, porém, conforme Rudyn, algo possível.
De fato, a complexidade dos algoritmos de IA, especialmente aqueles baseados em aprendizado de máquina, dificulta a explicação compreensível para usuários comuns. Além disso, o texto do PL não aborda de forma adequada como essa transparência será garantida em contextos em que a propriedade intelectual e o sigilo comercial são relevantes, apesar de trazer esta proposta no projeto de lei. Para equilibrar essas demandas, seria prudente propor a descrição de um modelo de “transparência mínima obrigatória”, que proteja os direitos dos usuários sem comprometer os interesses comerciais das empresas.
Retomando, o devido processo tecnológico é um conceito central para a contemporaneidade, em que a inteligência artificial desempenha um papel cada vez mais dominante nos processos decisórios. O PL 2338/2023 representa um avanço significativo na tentativa de regular a IA no Brasil e de considerar a proteção de direitos fundamentais e assegurar a legitimidade das decisões automatizadas. Contudo, apesar dos avanços, as disposições sobre responsabilidade e avaliações de impacto e transparência, embora necessárias, carecem de clareza técnica e procedimental em diversos aspectos.
É essencial, portanto, que o debate sobre a regulação da IA continue a evoluir, com a ampliação da participação dos stakeholders, incorporando, de forma explícita, no artigo 6º, o conceito de devido processo tecnológico para assegurar a transparência e explicabilidade (ou interpretabilidade), bem como a possibilidade de contestação nas decisões automatizadas, especialmente para assegurar o uso da tecnologia para o bem dos indivíduos e de forma a proteger direitos já existentes.
________________
(As opiniões expressas nos artigos publicados no Jornal da USP são de inteira responsabilidade de seus autores e não refletem opiniões do veículo nem posições institucionais da Universidade de São Paulo. Acesse aqui nossos parâmetros editoriais para artigos de opinião.)