Direitos fundamentais por design, sustentabilidade por design como formas de combate ao racismo ambiental no âmbito da IA

Por Paola Cantarini, pós-doutoranda Faculdade de Direito de Ribeirão Preto da USP

 19/03/2024 - Publicado há 1 mês
Paola Cantarini Guerra – Foto: IEA/USP

 

As mudanças climáticas e a transformação digital são as principais tendências do século, e devem ser discutidas em alinhamento com os valores sociais e democráticos, relacionando-se à inteligência artificial, seus impactos ambientais e aos direitos fundamentais, bem como com as temáticas da equidade, do colonialismo de dados, da justiça de dados, da justiça social e da justiça climática, reconhecendo sua interconexão.

De acordo com os Relatórios Globais de Riscos de 2023, a tecnologia exacerbará as desigualdades, destacando um dos principais pontos de risco para os próximos dois e 10 anos como a falha em mitigar as mudanças climáticas e prevenir ou mitigar danos ambientais em larga escala. Esses temas são o foco central das percepções globais de risco na próxima década, sendo os riscos para os quais estamos menos preparados.

A fim de se postular por uma IA inclusiva, decolonial, sustentável e democrática são endereçadas questões fundamentais que devem ser equacionadas quando se fala em governança de IA, e pensadas em uma perspectiva interdisciplinar, holística e sustentável, afastando-se de uma abordagem antropocêntrica, de forma a serem associados os conceitos de justiça de design, justiça algorítmica, justiça epistêmica, justiça de dados e justiça ambiental:

Como reduzir o impacto ambiental da IA e quais são os principais desafios no Brasil, como um país do Sul Global, em relação à proteção dos direitos fundamentais de populações vulneráveis (indígenas e afrodescendentes)? Como um modelo alternativo de governança de IA pode contribuir para promover a justiça social e a inclusão social, associando-se a inovação e o desenvolvimento tecnológico com a ética (metainovação) e a responsabilidade? Como o conceito de life centered IA e a elaboração de um framework, com metodologia e requisitos essenciais para a elaboração de um dos mais importantes instrumentos de “compliance” na área da IA (AIA – Avaliação de Impacto Algorítmico) podem contribuir para a proteção sistêmica dos direitos fundamentais e redução do impacto ambiental?

A fim de endereçar tais questões destacamos a proposta de Governança de IA alternativa, com foco em países do Sul Global, trazendo uma abordagem modular/procedural, conforme propõe o PL 2338/ 2023, visando a uma proteção sistêmica dos direitos fundamentais, nos aspectos individual, coletivo e social, o que é essencial para poder se falar em Estado Democrático de Direito desde a concepção, ou seja, já trazendo esta proteção desde o design e os instrumentos de compliance, considerando ainda a emergência climática, as perspectivas de grupos vulneráveis e a justiça social.

Abrange o conceito de racismo ambiental cunhado pelo ativista norte-americano Benjamin Chavis, significando a interconexão entre os dois conceitos. Entende-se que comunidades negras e marginalizadas são desproporcionalmente afetadas pela degradação ambiental. Portanto, é necessário examinar o fenômeno dos impactos ambientais da IA por meio de uma lente mais ampla.

A proposta de governança procedural não estabelece uma categoria fixa de riscos a priori, pois tal análise seria conduzida caso a caso, dependendo da situação específica concreta, ao contrário de modelos que envolvem uma proposta prescritiva de riscos em um formato rígido, como o Livro Branco sobre IA da União Europeia.

Um dos pontos centrais é a proposta de um framework específico para o desenvolvimento da AIA, focando nos direitos fundamentais potencialmente afetados por aplicações de IA e no impacto ambiental, considerando as características socioculturais do Brasil como um país do Sul Global, ampliando a participação de grupos vulneráveis como um passo essencial na criação de instrumentos de avaliação e revisão, e considerando as vulnerabilidades do país e em termo de grupos específicos, devido a sua fragilidade institucional e democrática, e ausência de uma Corte verdadeiramente constitucional nos moldes dos modelos pós Primeira Guerra Mundial (Relatório da Freedom House).

Diversos estudos destacam a vulnerabilidade da população afrodescendente em relação ao reconhecimento facial e à polícia preditiva, e o maior potencial de afronta a direitos fundamentais em contextos com um passado histórico documentado de discriminação e por comunidades sistematicamente negadas diversos direitos ao longo de sua história, além do impacto ambiental da IA.

Por sua vez, apesar de diversos documentos internacionais e pesquisas apontarem para a necessidade de elaboração de uma Avaliação de Impacto Algorítmico (AIA) e uma abordagem baseada em direitos fundamentais, com destaque para a Comissão Europeia, Conselho da Europa, Parlamento Europeu, Comissão Federal de Comércio (FTC), Administração Nacional de Telecomunicações e Informação (NTIA), Future of Privacy Forum, Agência da União Europeia para os Direitos Fundamentais (FRA), Autoridade Holandesa de Proteção de Dados; Autoridade Nacional de Proteção de Dados (ANPD) do Brasil e Unesco, há pouca produção científica no Brasil, com apenas um estudo do Lapin sobre um “framework” dedicado aos direitos fundamentais. No entanto, essa iniciativa carece de detalhes sobre aplicabilidade, requisitos e proceduralização.

Com o fim de reduzir a sub-representação tanto do Brasil em termos de produção científica como dos próprios direitos fundamentais, visa-se trazer uma proposta concreta, contribuindo para transformar princípios éticos em práticas eficazes, evitando-se o que se denomina como ethics washing ou greenwashing e a favor da sustentabilidade na IA, fornecendo um framework específico para a avaliação de impacto algorítmico, entendendo ser insuficientes, embora importantes, as normas técnicas já existentes, como a ISO (ISSO IEC 23894/2023, ISSO/IEC 42001) e a NIST, pois não se mostram vocacionadas aos direitos fundamentais potencialmente afetados.

Esse desenvolvimento foi teoricamente fundamentado nos princípios do privacy by design formulados por Ann Cavoukian no campo da proteção de dados, agora expandidos e focados no âmbito de aplicações de IA. Além disso, foram inspirados nos Princípios dos Direitos Fundamentais por Design desenvolvidos por um grupo de especialistas pela Agência da União Europeia para os Direitos Fundamentais (FRA) e pela Autoridade Europeia de Proteção de Dados (EDPB), em colaboração com o Conselho da Europa e o Escritório de Propriedade Intelectual da União Europeia (EUIPO). No entanto, ampliamos a perspectiva, pois tal proposta apenas cita alguns direitos fundamentais (privacidade, não discriminação, liberdade de expressão e informação), além de não observar impactos a direitos coletivos e sociais, falando apenas de transparência e responsabilidade, o que não é suficiente.

No Brasil, o OBIA – Observatório de IA não aborda a observação dos direitos fundamentais em seus principais eixos, nem abrange questões ambientais.

Da mesma forma, as principais propostas legislativas no Brasil, como os PL 2120/2338/23, carecem de especificidade em relação ao impacto ambiental e o potencial de afronta a todos os direitos fundamentais, da mesma forma como há tal omissão no GDPR e no AI ACT da EU (1ª. Versão). Na versão final do AI ACT, a proposta avança em termos de impactos ambientais em comparação com a versão anterior, mas não há ainda uma proteção concreta e sistêmica, em especial por entender o AIA como um documento voluntário e como regra a ser elaborado pelas empresas responsáveis pela aplicação de IA, o que comprometeria o requisito da legitimidade, já que ausente a independência e imparcialidade necessárias, além de não garantir a participação de representantes de grupos vulneráveis, e ser produzido por uma equipe interdisciplinar e multiétnica.

Quanto ao PL 21/2020, observa-se que há uma lista de princípios abstratos (Artigo 6), sem concretude, pois não são complementados por medidas efetivas sobre como seriam implementados. Fala-se apenas de maneira genérica sobre trazer benefícios para as pessoas e o planeta e desenvolvimento sustentável (I), mas ainda enfatizando a centralidade do ser humano (II) e mencionando apenas alguns dos direitos fundamentais potencialmente afetados (II), a saber, privacidade, não discriminação e proteção de dados. Além disso, no que diz respeito ao Relatório de Impacto da Inteligência Artificial (Artigo 13 e Artigo 3, VI), não é uma medida obrigatória e não há requisitos mínimos para elaboração e seu procedimento de elaboração.

Por outro lado, o PL 2338/23, embora preveja a elaboração obrigatória da AIA – Avaliação de Impacto Algorítmico, ainda é incompleto. Mesmo que mencione a proteção ambiental em seus princípios (Artigo 2, IV), não traz medidas concretas nesse sentido. Além disso, quando aponta no Artigo 31 a comunicação obrigatória à autoridade competente em caso de danos à propriedade e ao meio ambiente e violações graves dos direitos fundamentais, não oferece proteção adequada, pois qualquer nível de dano a estes deve ser comunicado e evitado adequadamente antecipadamente. Além disso, em relação à abordagem dos direitos fundamentais, enquanto seu princípio 2, II fala do respeito aos direitos humanos, seus itens V, VII mencionam apenas alguns dos direitos fundamentais potencialmente afetados pela IA.

Quanto à Avaliação de Impacto Algorítmico, embora o PL 2338/23 avance nesse aspecto em comparação com o PL2120, de acordo com seus artigos 22 e seguintes, torna tal avaliação obrigatória pelo próprio agente de IA, e apenas no caso de alto risco. Além disso, quando o Artigo 23 traz os requisitos da equipe que irá preparar tal avaliação, não fornece uma previsão completa dos requisitos necessários, de acordo com a melhor doutrina, pois não menciona uma equipe multidisciplinar, multiétnica com conhecimento da teoria dos direitos fundamentais. Além disso, como regra do Artigo 23, afirma que a avaliação será realizada pelo próprio agente, exceto no caso do parágrafo único, quando estabelece que a autoridade competente regulamentará os casos em que a avaliação ou auditoria deve ser necessariamente realizada por um profissional ou equipe de profissionais externos ao fornecedor, ou seja, não torna tal requisito uma regra. Em termos de metodologia, não fornece exemplos de possíveis medidas mitigadoras a serem adotadas, sendo genérico e insuficiente.

O framework proposto abrange todos os direitos fundamentais potencialmente afetados, incorporando os princípios de Direitos Fundamentais por Design, sob uma nova lente mais holística, inclusiva e completa, semelhantes aos conceitos de privacidade por design da lavra de Ann Cavoukian.

A preparação de Avaliações de Impacto Ambiental (AIAs) torna-se um requisito essencial a favor do princípio da precaução, atuando como um ônus adicional de argumentação em favor dos direitos fundamentais afetados, e adotando o conceito do life centered IA, mais amplo do que human centered IA, considerando impactos ambientais diretos e indiretos da IA, sendo estes os principais problemas mencionados no Relatório Global de Riscos de 2023 (falhas na mitigação das mudanças climáticas e danos ambientais em larga escala) a fim de se concretizar o que é denominado de Estado Democrático de Direito desde a concepção.

O framework seria exigido, ao contrário de uma forma voluntária, como geralmente é previsto em propostas de regulamentação, e não apenas nos casos de risco grave, fixados de forma rígida, como dispõe o AI ACT e o PL brasileiro, mas sempre no caso de potencial afronta a direitos fundamentais e impacto ambiental. As medidas de mitigação a serem adotadas no caso de potencial de danos a tais direitos, dependem de uma abordagem proporcional ao nível de risco, considerando a probabilidade de sua ocorrência, o alcance e a gravidade.

Vale lembrar que no contexto ambiental, e da mesma forma, tem sido entendido no contexto de proteção de dados, que quando ocorre um dano, dificilmente este é resolvido de forma integral apenas com medidas reparadoras posteriores, sendo essencial o princípio da prevenção, e a AIA é o instrumento por excelência para tal objetivo.

Além disso, ao observar o Guia WP29 2016 no que tange à definição de casos sujeitos ao DPIA – Relatório de Impacto de Privacidade, é considerada obrigatória tal elaboração quando houver uma classificação e definição de perfis e disposição de aspectos relacionados ao desempenho profissional, situação econômica, saúde, preferências ou interesses pessoais, confiabilidade ou comportamento, localização/movimento; e quando do processamento de dados de sujeitos de dados vulneráveis. Aqui já teríamos um paradigma para se considerar obrigatória também a elaboração da AIA nestes casos quando de aplicações de IA.

A Lei de Responsabilidade Algorítmica (EUA), considera de alto risco, quando a decisão automatizada representa um risco significativo para a privacidade, segurança ou resulta em decisões injustas e preconceituosas, trazendo a obrigatoriedade do relatório de impacto de proteção de dados e um relatório de impacto mais genérico nos casos em que a IA é usada para automatizar processos de tomada de decisão, afirmando que devem ser medidos os impactos quando à precisão, justiça, discriminação, privacidade e segurança.

Da mesma forma, que há a previsão quanto ao direito à privacidade, que é um direito fundamental entendemos que nos demais casos de potencial de afronta a outros direitos fundamentais, também estaria justificada tal obrigatoriedade já que todos os direitos fundamentais se encontram em mesma hierarquia constitucional, sem superioridade entre eles.

*Acerca do framework e da proposta de princípios do fundamental rights by design, e da elaboração da AIA, sua metodologia, requisitos essenciais e procedimento, além de sugestão de medidas mitigadoras de danos ver: ethikai.org, https://academiadeletrasdabahia.org.br/project/democratic-rule-of-law-from-conception-framework-and-principles-of-fundamental-rights-by-design-and-epistemologies-of-the-south-towards-an-inclusive-decolonial-and-democratic-ai/. A presente proposta de governança e de um framework para a avaliação de impacto algorítmico foi objeto de pesquisa pós-doutoral no Instituto de Estudos Avançados da USP, na Cátedra Oscar Sala, supervisionada por Virgilio Almeida, nos anos de 2022 e 2023, e é objeto de um livro intitulado Governança de IA – Uma Abordagem Decolonial e Inclusiva (Lumen Juris, 2024), com introdução de Eligio Resta, posfácio de Willis S. Guerra Filho e prefácio de Hartmund Richard Glaser do CGI.

________________
(As opiniões expressas nos artigos publicados no Jornal da USP são de inteira responsabilidade de seus autores e não refletem opiniões do veículo nem posições institucionais da Universidade de São Paulo. Acesse aqui nossos parâmetros editoriais para artigos de opinião.)


Política de uso 
A reprodução de matérias e fotografias é livre mediante a citação do Jornal da USP e do autor. No caso dos arquivos de áudio, deverão constar dos créditos a Rádio USP e, em sendo explicitados, os autores. Para uso de arquivos de vídeo, esses créditos deverão mencionar a TV USP e, caso estejam explicitados, os autores. Fotos devem ser creditadas como USP Imagens e o nome do fotógrafo.