Por uma IA democrática, inclusiva e decolonial: “frameworks” de proteção a todos os direitos fundamentais

Por Paola Cantarini, pós-doutoranda da Cátedra Oscar Sala do Instituto de Estudos Avançados (IEA) da USP

 16/05/2023 - Publicado há 1 ano
Paola Cantarini Guerra – Foto: IEA/USP

 

A IA como a mais disruptiva das tecnologias, apesar de propiciar inúmeros benefícios à sociedade, possui um potencial de afronta a todos os direitos humanos e fundamentais, sendo essencial a construção e fiscalização do cumprimento de um framework específico, voltado à análise de riscos a tais direitos em aplicações de inteligência artificial (IA), envolvendo para tanto o conceito de fundamental rights by design, indispensável para se alcançar o conceito de “justiça de design”. Há, ainda, necessidade de uma lei com efetividade (enforcement) para tornar obrigatória tal prática, trazendo a devida procedimentalização e os demais requisitos indispensáveis em sua elaboração.

Visa-se com isso somar esforços no sentido de buscar uma proteção sistêmica, proativa, abrangente e segura, por meio de algo como a interseccionalidade, através de legislação, compliance e boas práticas pautadas em princípios éticos. A lei neste caso não pode ser apenas principiológica, mas com incentivos ao compliance, aliando-se às práticas de autorregulação (compliance e design técnico), em especial, trazendo a obrigatoriedade de documentos como o LIA (Legitimate Interests Assessment) e o DPIA (Data Protection Impact Assessment) – ou seja, antes do início da aplicação de IA com tratamento de dados, a ser colocada no mercado, prevenindo danos a possíveis direitos fundamentais.

Isto porque apenas princípios éticos, embora importantes, não são suficientes, por lhes faltar enforcement, além de serem produzidos de forma não homogênea, podendo dar ensejo ao que se tem denominado de “lavagem ética”, quando se prestam a uma mera camuflagem. Em sentido semelhante, embora imprescindível, o compliance apenas não é suficiente, e poderá se basear também, sem um critério legalmente estabelecido, em medidas unilaterais e seletivas, em termos de interesses e assimetrias de poder. Com isso, haveria o risco de que o controle apenas via tecnologia pudesse ensejar a perda de regulamentação normativa ou causar fins normativamente indesejáveis.

A principal fundamentação da presente perspectiva é contribuir para a concretização da proteção, promoção e efetivação dos direitos fundamentais por meio da tecnologia, não apenas no âmbito individual, mas coletivo e social (multidimensionalidade dos direitos fundamentais), trazendo a preocupação com o impacto ambiental por parte da IA, e demais danos que possa causar, sem contudo obstar a inovação e competitividade internacional, pois é uma perspectiva de longo prazo e com foco na sustentabilidade.

Diante de tal perspectiva, no âmbito de pesquisa realizada em sede de pós-doutorado no Instituto de Estudos Avançados da USP – Cátedra Oscar Sala, desenvolvemos uma proposta de Governança de IA BR/Sul Global, trazendo uma abordagem modular/procedimental, pois abrange um sistema de proteção proativo aos direitos fundamentais, por meio de quatro camadas interconectadas, envolvendo a regulamentação jurídica, o design técnico e arranjos tanto éticos como sociais, tendo por camada superior a dignidade humana e o respeito aos direitos fundamentais, essencial para um Estado Democrático de Direito, conjugando-se a heterorregulação com a autorregulação, por meio do compliance e de boas práticas, pautadas em princípios éticos.

A proposta envolve a construção de um framework específico, voltado à análise de riscos a direitos fundamentais em aplicações de inteligência artificial (IA), envolvendo o conceito de novos princípios do “fundamental rights by design”, voltando-se para as características socioculturais do Brasil como um país do Sul global. Trata-se de um modelo procedimental, por envolver a ponderação e procedimentos tanto no design como nos documentos de compliance, trazendo uma maior flexibilidade, sem engessamento do sistema, ou seja, é um modelo não estático, mas flexível e mutável (co-approach). Tal modelo teria a vantagem de não obstar a inovação, ao ser mutável e adaptável ao desenvolvimento da tecnologia no futuro. A legislação iria então garantir o respeito aos direitos fundamentais como um objetivo central do processo de construção de softwares e algoritmos, isto é, durante todo o ciclo de vida do sistema, como um requisito para a viabilidade de tal projeto. Ampliar-se-ia assim o framework, tal como já consagrado na área de proteção de dados, como privacy by design, privacy by default, proposta da lavra de Ann Cavoukian (ANPD do Canadá), e também privacy by business model, como derivação do princípio da accountability, agora ampliado para se tornar um fundamental rights by design.

Desta forma, verifica-se que infelizmente aplicar apenas a CF88 (Constituição Federal de 1988) nos moldes atuais e o diálogo das fontes, com base em MCI (Marco Civil da Internet), LGPD (Lei Geral de Proteção de Dados) e EBIA – Portaria MCTI nº 4.617/2021 não seria suficiente, pois não abrangem todas as particularidades e especificidades das aplicações de IA e, assim como foi necessária a promulgação destas leis, também se faz presente a necessidade urgente de uma legislação acerca da IA, a qual não irá obstar a inovação ou a competitividade internacional, como veremos.

Outrossim, o MCI foi promulgado há aproximadamente dez anos, quando a tecnologia encontrava-se em outro estágio de desenvolvimento, ou seja, até 2001 verifica-se um modelo passivo (busca orgânica), a partir de 2001 até 2014, um modelo ativo, direcionador de conteúdos pelas plataformas digitais, e a partir de 2014 tem-se a utilização em massa de algoritmos para impulsionar, selecionar e fazer a perfilização do conteúdo e das pessoas envolvidas, com um efeito em massa e de maior potencial manipulador, chegando a persuasão a níveis antes não equiparáveis por outras mídias, ampliada pela característica de “ubiquidade” das novas tecnologias, que se integram e se misturam ao dia a dia das pessoas, sem uma consciência crítica atrelada a tal uso massivo (captologia), de viralização de conteúdo e monetização. Surgem novas formas de controle, agora não mais apenas suaves, mas duras, relacionadas com as mídias sociais, a partir da primeira década do século 21, como pode ser observado pela utilização das mídias sociais pelo Departamento de Segurança Interna dos Estados Unidos (DHS) para fins de vigilância “mais dura”, sendo criada a Socmint (Social Media Intelligence) como um departamento dentro das agências de segurança.

Fala-se, na área de proteção de dados, em instrumentos de compliance, já aceitos e reconhecidos internacionalmente como essenciais, a exemplo do DPIA – relatório de impacto de proteção de dados/privacidade – e do LIA – avaliação do legítimo interesse -, sendo que neste ponto o Regulamento Europeu de Proteção de Dados, no qual se inspirou nossa LGPD, é mais protetivo e completo justamente por trazer uma padronização e requisitos essenciais para a elaboração de tais documentos. Os documentos internacionais da EU podem então colaborar para a construção de uma fundamentação teórica importante, embora também deva ser analisado o contexto sociocultural do Brasil, diante de um histórico mais antigo da proteção de dados pelos países da EU, com leis neste sentido desde a década de 1970.

Este é um ponto, aliás, passível de crítica na LGPD, considerada de nível moderado/fraco de proteção, com previsão de poucos instrumentos de boas práticas e compliance, comparando-se com o nível europeu, o que poderia contribuir para menos interpretações dúbias e insegurança jurídica no tocante a alguns pontos da nossa LGPD, a exemplo da compreensão não homogênea acerca da obrigatoriedade ou não do DPIA/LIA, de quem deveria elaborar os mesmos, quando e como elaborar, justamente por falta de técnica legislativa e maiores cuidados da LGPD nestes pontos, apesar de suas inúmeras qualidades como marco legislativo imprescindível.

É imprescindível, portanto, que a lei traga a obrigatoriedade, a procedimentalização e os requisitos para a elaboração da AIIA – avaliação de impacto algorítmico -, sendo que este último documento deverá ser elaborado de forma prévia, independente (legitimidade), ou seja, por uma equipe interdisciplinar, multicultural e independente, assim contribuindo para a diversidade epistêmica, democratização e inclusão (abordagem co-approach). Diversos processos de revisão e elaboração da AIA são controlados e determinados pelos que tomam as decisões em tal processo algorítmico, com menos ênfase na consulta de perspectivas externas, incluindo as experiências dos mais afetados pelo desenvolvimento algorítmico, podendo gerar documentos de avaliação enviesados e parciais. Por conseguinte, é essencial que a equipe responsável pela produção e revisão de tais instrumentos de compliance possua as seguintes características, para se falar em legitimidade e diversidade epistêmica: transdisciplinaridade, multiculturalismo, holismo, expertise, conhecimento de Teoria dos Direitos Fundamentais, em especial da proporcionalidade e ponderação, além de independência e autonomia.

Ainda se haverá de prever e trazer incentivos fiscais, medidas premiais e/ou por meio de doações a pequenas empresas/startups para realização de compliance, e revisão humana de decisões automatizadas – em casos de alto risco e moderado de aplicações de IA, possibilidades de certificações, devendo haver políticas públicas neste sentido, bem como incentivadoras do treinamento das pessoas cujos empregos estarão na berlinda (em especial, tarefas repetitivas, facilmente automatizadas), requalificadas para “novas funções”, pois isto demanda tempo e dinheiro. Além disso, também há necessidade de incentivos em educação de qualidade, alfabetização digital, cidadania e conscientização da sociedade civil acerca dos benefícios e riscos da IA, em especial incentivos nas áreas de humanidades e pensamento crítico, pois há um desequilíbrio e defasagem neste lado da balança, pois já há muitos incentivos em práticas de automação e ensino voltados a metas, mas não ao pensamento inter/transdisciplinar, na forma de bolsas de estudo para apoio à pesquisa científica desta maneira.

Na área de proteção de dados fala-se em danos como uma espécie de dano ambiental, já que dificilmente um vazamento de dados poderá ser recuperado de forma absoluta, como um vazamento de óleo no oceano, daí se invocar o princípio da prevenção atrelado à concepção de risco – risquificação, risk based approach.

A CF88 consagra valores democráticos e republicanos na forma de princípios, sendo o Estado Democrático de Direito aquele em que se tem uma proteção adequada a direitos fundamentais de todas as parcelas da população. Outrossim, há uma pauta e nível alcançado com a CF88 de conquista civilizatória que traz a proibição do retrocesso, isto é, não se pode sustentar práticas que coloquem em risco direitos fundamentais já consagrados. Um ponto crucial neste aspecto é o modelo de negócio com base em “trabalho análogo ao escravo” (zeladores de dados), surgindo um novo subprecariado sem qualquer direito, e com atividade essencial para o “bigdata”, na limpeza dos dados, contribuindo também para o “superávit comportamental” (Shoshana Zuboff).

Ou seja, o mantra encabeçado por algumas empresas da área tecnológica de “quebrar coisas e agir rápido” aqui não se sustenta, pois significa afronta a tais direitos fundamentais e, assim, ao Estado Democrático de Direito.

Diante de casos relatados de inúmeras afrontas a tais direitos, em razão de aplicações de IA, bem como da repercussão envolvendo a nova tecnologia empregada no Chat GPT, sendo relatados diariamente casos críticos, é urgente uma manifestação e reação tempestiva do Direito, diante ainda do potencial de conteúdo viral no caso de fake news/deep fakes, com alcance e rapidez inexistentes em outros tipos de mídias anteriormente utilizados.

Outrossim, assim como se deu com a proteção de dados/autodeterminação informativa reconhecida como direito fundamental, há novos direitos fundamentais emergentes na área, como aqueles denominados neurorights (neurodireitos), sendo estes:

1. O direito à privacidade mental
2. O direito à identidade pessoal
3. O direito ao livre-arbítrio
4. O direito à igualdade de acesso ao aumento mental
5. O direito à proteção contra preconceitos

A Comissão Europeia (European Commission) consagra a importância de uma abordagem holística (holistic approach) para enfrentar os desafios colocados pela IA, com destaque para os legal frameworks on fundamental rights, ou seja, o estabelecimento de frameworks voltados a direitos fundamentais, sendo que apenas com tal respeito é possível se falar em “justiça algorítmica”.

Em sentido complementar, em 2018 o relatório enviado à Assembleia Geral da ONU pelo relator especial da ONU sobre Liberdade de Opinião e Expressão afirma que “as ferramentas de IA, como todas as tecnologias, devem ser projetadas, desenvolvidas e utilizadas de forma a serem consistentes com as obrigações dos Estados e as responsabilidades dos atores privados sob o direito internacional dos direitos humanos” (Assembleia Geral da ONU, 2018). No mesmo sentido, a Declaração de Toronto (2018), com destaque para o direito à igualdade e à não discriminação em sistemas de IA e as Diretrizes Éticas desenvolvidas pelo Grupo de Especialistas de Alto Nível da UE sobre IA (AI HLEG), ao postular por uma IA confiável, fundada na proteção dos direitos fundamentais, na esteira da Carta da UE e na Convenção Europeia sobre Direitos Humanos (CEDH).

Ainda segundo a Declaração de Toronto, deverá haver uma garantia de que grupos potencialmente afetados e especialistas sejam incluídos como atores com poderes decisórios sobre o design, e em fases de teste e revisão; revisão por especialistas independentes; divulgação de limitações conhecidas do sistema – por exemplo, medidas de confiança, cenários de falha conhecidos e limitações de uso apropriadas.

Alguns documentos internacionais trazem a previsão expressa acerca da AIIA com foco em direitos fundamentais e humanos (DF/DH ), com destaque para:

1 – Conselho da Europa: prevê uma versão ampla da avaliação de impacto, semelhante à AIDH – Avaliações de Impacto em Direitos Humanos: Unboxing AI: 10 steps to protect Human Rights (setor público);

2 – Relatório do relator especial das Nações Unidas para a Promoção e Proteção do Direito à Liberdade de Expressão e Opinião acerca de IA e seus impactos sobre as liberdades: prevê a obrigatoriedade de se garantir uma manifestação de ‘’transparência radical’’, permitindo que os sistemas sejam escrutinados e desafiados da concepção à implementação, por meio de um processo de deliberação pública com revisão por organizações ou consultores externos, que sejam afetos e com expertise em direitos fundamentais e humanos;

3 – Governing data and artificial intelligence for all – Models for sustainable and just data governance do Parlamento Europeu, de julho de 2022, European Parliamentary Research Service, trazendo a perspectiva de data justice, se preocupando com a elaboração de human rights impact assessments por priorizar direitos, além de apostar na criação de modelos alternativos de governança que incluam formas locais de soberania digital, como a indígena. Aponta ainda para a importância do constitucionalismo digital, por oferecer uma linguagem de direitos e para poder desafiar excessos tanto do poder público como do privado, trazendo o aspecto da diversidade, inclusão, e também para se evitar a fragmentação e possíveis interpretações conflitantes diante de diversos instrumentos regulatórios.

4 – Centro de Ética e Inovação de Dados do Reino Unido (importância do respeito aos direitos fundamentais);

5 – Diretiva sobre Tomada de Decisão Automatizada do governo canadense (The United Kingdom’s Centre for Data Ethics and Innovation).

Destacam-se, destarte, os relatórios e documentos elaborados por órgãos como a Federal Trade Comission (FTC), a National Telecommunications and Information Administration (NTIA), o Future of Privacy Forum, European Union Agency for Fundamental Rights (FRA) e a Autoridade Holandesa de Proteção de Dados (Autoriteit Persoonsgegevens), todos com foco em frameworks de direitos fundamentais.

Destacamos alguns exemplos pontuais, contudo, de tal abordagem denominada life centered AI (mais ampla que apenas human centered AI), tais como a iniciativa da Costa Rica (compromisso com a proteção ambiental e implementação de técnicas agrícolas de precisão, incluindo o uso de zangões e imagens de satélite para otimizar o rendimento das colheitas e reduzir o uso de pesticidas) e a da China (implementação de câmeras alimentadas por IA para monitorar e proteger espécies ameaçadas, tais como pandas, leopardos-da-neve e tigres-siberianos).

Há, pois, um grande gap na área de IA pela falta de exigência de trabalho de pesquisa inter/transdisciplinar e pela ausência nas discussões de pessoal qualificado na área das humanidades, em especial com expertise em ética, filosofia e conhecimento especializado na área jurídica, com relação à temática da IA e de proteção de dados, refletindo tanto em questões como a da falta de diversidade epistêmica, e sub-representação de pessoas que respondam por tais áreas, além de sub-representação nas discussões internacionais de países do Sul global.

Ademais, há falta de conhecimento especializado e aprofundado acerca de modelos de compliance, boas práticas, com fundamento em frameworks consolidados em uma perspectiva holística, envolvendo a área das humanidades na relação com a IA e proteção de dados e, em especial, falta de conhecimento acerca dos direitos fundamentais, da proporcionalidade e ponderação, integrantes de tal análise. Diante da complexidade técnica acerca do tema IA, bem como acerca dos direitos fundamentais, exige-se conhecimento especializado e experiência em tais temáticas.

Interessante observar que a mesma perspectiva acaba de ser apresentada pelo Governo Federal, pela Secretaria de Governo Digital do Ministério da Gestão e Inovação, ao lançar o Programa de Privacidade e Segurança da Informação (PPSI), mencionando expressamente a criação de um framework de Privacidade e Segurança da Informação, composto de um conjunto de controles, metodologias e ferramentas de apoio, tal como publicado no portal da SGD.

Por outro lado, a Unesco faz a recomendação de que precisamos de “international and national policies and regulatory frameworks to ensure that these emerging technologies benefit humanity as a whole. A human-centred AI must be for the greater interest of the people, not the other way around”. Apesar da iniciativa ser necessária e importante, também esbarra em algumas fragilidades, em especial por não ser suficiente a abordagem human-centred AI, e por não oferecer enforcement, já que estamos falando de princípios éticos apenas.

A questão principal aqui novamente é que diversos documentos, como vemos dos exemplos citados, referem-se a um único direito fundamental, privacidade, e limitam-se a apontar alguns dos requisitos de uma IA de confiança. Neste sentido, apontamos para a necessidade de uma abordagem não apenas centrada no ser humano (human centered AI), mas na life centered AI, considerando a multidimensionalidade dos direitos fundamentais e humanos, e o potencial de afronta da IA a todos eles, inclusive àquele ao meio ambiente. Um segundo ponto essencial seria a formulação de novos princípios dos fundamental rights by design, com foco no contexto sociocultural de países do Sul global e que abranjam uma possível afronta a todos os direitos fundamentais potencialmente afetados.

Trata-se de uma perspectiva inclusiva, holística, democrática e sustentável, pois traz benefícios à sociedade em geral, com uma proteção adequada aos direitos fundamentais, ao País enquanto Estado Democrático de Direito, com redução da iniquidade e violência social, e também para as empresas, ao permitir a redução do risco do negócio, aumento da eficiência com redução de possíveis sanções e processos judiciais, além de contribuir para o fortalecimento da marca e reputação empresarial, já que estará agindo com base nos princípios da boa-fé, transparência, confiança e comportamento responsável, permitindo assim uma prestação de contas e verificação de eventuais responsabilidades. Haverá também o aumento da competitividade ao atraírem clientes que valorizam o comportamento ético, confiável e responsável.

Observação: complementa o presente artigo um manifesto aberto à assinatura de todos os que se interessarem pelo tema e propostas mencionadas, publicado na coluna Migalhas – Humanidades e Novas Tecnologias, no site da revista ethikai e no Avaaz. Pedimos, por favor, àqueles que desejem assinar o presente manifesto, que enviem um e-mail para paolacantarini@gmail.com, para confirmarmos a inclusão.

________________
(As opiniões expressas nos artigos publicados no Jornal da USP são de inteira responsabilidade de seus autores e não refletem opiniões do veículo nem posições institucionais da Universidade de São Paulo. Acesse aqui nossos parâmetros editoriais para artigos de opinião.)


Política de uso 
A reprodução de matérias e fotografias é livre mediante a citação do Jornal da USP e do autor. No caso dos arquivos de áudio, deverão constar dos créditos a Rádio USP e, em sendo explicitados, os autores. Para uso de arquivos de vídeo, esses créditos deverão mencionar a TV USP e, caso estejam explicitados, os autores. Fotos devem ser creditadas como USP Imagens e o nome do fotógrafo.