“Ghost work” e “big data”: uma nova forma de servidão e de colonialismo?

Por Paola Cantarini, pós-doutoranda Faculdade de Direito de Ribeirão Preto da USP

 11/01/2024 - Publicado há 11 meses
Paola Cantarini Guerra – Foto: IEA/USP

 

Este artigo busca refletir de forma crítica e interdisciplinar sobre os impactos da IA, nunca vistos na história humana, em relação ao futuro do trabalho, trazendo um alto potencial de substituição do trabalho humano, não apenas em tarefas simples e rotineiras, como no caso da automação, mas de um espectro muito mais amplo e sem precedentes. Além disso, aborda fenômenos correlatos, como uma maior concentração de renda na nova fase da IA e o surgimento, outrossim, de um novo subprecariado, exemplificado pelas “plafaformas austeras ou de trabalho” (Uber, Airbnb, TaskRabbit e Mechanical Turk).

O texto também discute a emergência de uma nova classe de pessoas consideradas inúteis ou inempregáveis, além dos denominados “trabalhadores fantasmas” ou “zeladores de dados”, essenciais para a área de inteligência artificial, mas invisibilizados e sem qualquer proteção trabalhista, também denominados pela literatura de “cibertariado”. Ainda busca trazer reflexões e contribuir para o debate acadêmico no Sul Global, reduzindo-se o déficit de produção científica na área das humanidades e IA, visando à diversidade epistêmica.

Visa-se, sobretudo, à promoção do pensamento científico e à democratização das discussões sobre a IA, almejando atingir profundidade rigor científico e uma abordagem crítica e inter/transdisciplinar, trazendo, outrossim, uma abordagem que seja ela própria já inclusiva e democrática. Isto no sentido de aproximar diversos campos do saber e diversos tipos de atores sociais (empresas, academia, governo, cidadãos). Com isso, visa-se à democratização da discussão acerca da temática IA como um todo, pois assim acreditamos que estaremos contribuindo para alcançarmos o que se denomina como “justiça de design” e uma abordagem de “co-construção” (co-approach). Como dispõe com propriedade Sasha Constanza-Chock, na “justiça de design”, exigiria ser repensada a dinâmica do design através de múltiplos eixos de opressão, com destaque para a necessidade da inclusão no sentido de se exigir a participação das comunidades marginalizadas em todas as fases do processo de concepção tecnológica.

Co-approach”, por sua vez, significa a abordagem com fulcro no entendimento de que, para ser inclusiva e democrática, a governança de IA e a própria IA devem estar atentas à participação de grupos vulneráveis, bem como devem ser repensados os modelos dominantes propostos, em um sentido decolonial. Como exemplo paradigmático de tal abordagem temos, no plano internacional, a proposta do modelo de governança de dados “Maori”, refletindo os princípios e o histórico das lutas das comunidades Maori na Nova Zelândia, com ênfase para a previsão da proteção e equilíbrio entre os direitos individuais e coletivos, com o respeito à cultura Maori e à sua visão de mundo para a formação do processo de decisões tomadas em todo o ecossistema de dados, em um processo de co-desenho. Ainda, como exemplo de governança decolonial, o documento da Global Indigenous Data Alliance, CARE Principles of Indigenous Data Governance traz expressa previsão de proteção da soberania de dados indígena, baseando-se na Declaration on the Rights of Indigenous Peoples (Undrip) da ONU, adotada em 2007.

Daí a importância da revalorização das “humanidades” em geral, para com isso termos de novo reequilibrada a balança, diante do investimento financeiro na técnica, nas áreas de exatas e em compreensões mais mecanicistas e tecnicistas, também acerca da realidade. Destarte, não se poderia deixar de também revalorizar não apenas o pensamento do cálculo, utilitário, ou voltado ao hedonismo, mais próximo de Descartes e da “mimesis”, mas, sobretudo, a “poiesis”, sendo esta central dentro da produção de disciplinas mais próximas das humanidades.

Vivemos na sociedade da informação, sociedade de dados e sociedade 5.0 (Japão), atrelada aos conceitos de pós-humanismo e de transumanismo, falando-se ainda em “virada do não humano”, um conceito macroscópico que traz repercussões sociais de alta magnitude, com foco no descentramento do humano da biosfera, para se tornar verdadeira força geológica, a provocar a chamada era do antropoceno.

Fala-se na nova fase da IA – nova Revolução Industrial – com os “modelos de fundação” – “foundation models” –, que estão acelerando o seu progresso, com habilidades antes não previstas, e em sexta onda da inovação tecnológica, a partir das transformações profundas na sociedade e da economia com as inovações tecnológicas, a partir do início do século 21, sendo que agora as tecnologias digitais e a inteligência artificial são somadas às tecnologias da informação e comunicação surgidas na segunda metade do século 20.

São apontadas preocupações cada vez mais frequentes com a possibilidade destes novos modelos autonomamente traçarem seu curso, quando, por exemplo, a própria inteligência artificial (IA) instalada em artefatos cibernéticos tiver a capacidade de construir outras IAs melhores, ficando a preocupação quanto ao que seria considerado por elas “melhor” ou com o aumento dos casos de vieses, “bias”, além de um impacto nunca antes visto na história humana com relação ao futuro do trabalho, trazendo um alto potencial de substituição do trabalho humano não apenas em tarefas simples e rotineiras como no caso da automação, mas de um espectro muito mais amplo e sem precedentes.

A IA, em sendo uma das mais disruptivas tecnologias, uma verdadeira força ambiental, antropológica e ontológica, já está a re-ontologizar o mundo, criando novas realidades; apesar de propiciar inúmeros benefícios à sociedade, possui um potencial de afronta a todos os direitos humanos e fundamentais, ensejando como resposta uma proteção contra eventuais violações a tais direitos de forma sistêmica, proativa, abrangente e segura. E isso por meio de algo como a interseccionalidade, através de legislação, “compliance” e boas práticas pautadas em princípios éticos, em uma abordagem holística, inclusiva e democrática, a qual mais se coaduna com as características da IA em sua origem (cibernética). Isso se dá em uma perspectiva não eurocêntrica, mas multicultural.

Assim como ocorre com outras áreas da economia, onde é comum falar-se que quem aufere os benefícios e lucros deveria arcar com os ônus, ao invés de democratizar e socializar tal parte enquanto que a primeira ficaria concentrada em poucas parcelas da população, contudo, fica cada vez mais claro que os benefícios e as oportunidades de tecnologias como a IA raramente são compartilhados de forma equitativa, para podermos falar em uma economia de fato compartilhada, havendo uma ainda maior concentração de renda nesta nova fase do capitalismo de vigilância ou de dados/plataforma, e colonialismo de dados a partir dos últimos desenvolvimentos da IA.

É o que aponta a Unesco, em sua Recomendação sobre a ética da IA, afirmando o seu potencial transformador para afrontar desafios globais, mas ao mesmo tempo, com potencial de risco de incremento das desigualdades e afronta a direitos humanos, caso não sejam considerados os aspectos éticos, falando em uma abordagem de participação inclusiva e diversa, com inclusão de participação de grupos vulneráveis, como os indígenas e locais, por meio de programas adaptados aos contextos locais e em idiomas indígenas. Essa inclusão e visão holística busca garantir que a IA apoie práticas sustentáveis e de respeito à diversidade cultural e linguística, e de preservação de identidades e patrimônios culturais de tais povos, a fim de se falar em uma IA democrática, incluindo a diversidade cultural, de vozes, valores e perspectivas.

Há uma maior concentração de renda na nova fase da IA, já que apenas poucas empresas possuem dinheiro suficiente para grandes e caros computadores, bem como armazenamento e treinamento de dados, essenciais ao “big data”, falando-se no surgimento, outrossim, de um novo subprecariado, como nos casos das denominadas “plafaformas austeras ou de trabalho” (Uber, Airbnb, TaskRabbit e Mechanical Turk), em uma nova classe de pessoas inúteis, não apenas desempregados, mas inempregáveis.

Destaca-se a importante contribuição de Marcelo Finger ao mencionar a necessidade de “reitrenamento” de profissionais que perderão seus empregos devido à IA, não sendo suficiente mais para tal readaptação o Ensino Fundamental completo, ou o Ensino Médio completo, exigindo-se treinamento de nível universitário. A pergunta que fica é quem pagará a conta de tal investimento, o qual além de dinheiro demanda tempo, o qual cada vez menos dispomos diante da crescente aceleração do tempo diante da sociedade de dados e da informação como bem aponta Paul Virilio com o termo “dromologia”.

Portanto, “not all speed is movement”, como aponta Ruha Benjamim, já que a velocidade pode levar a novas formas discriminatórias, ou seja, não se poderia tratar da velocidade como um fim em si mesmo, mas também caberia questionarmos do porquê e para quem; quem se beneficia de determinado sistema de poder, para quem é concebida tal tecnologia, já que a política se encontra agora intimamente relacionada com a velocidade, como destacou Paul Virilio, apontando para uma revolução dromocrática, e para a substituição do termo democracia por dromocracia. A velocidade possui uma íntima ligação também com o capitalismo, e com mais ênfase a partir da crise da década de 1970 provocada pelos países produtores de petróleo, ao requerer um esforço ainda maior para renovação tecnológica do capital, determinando uma aceleração exponencial do tempo de rotação do capital, acentuando-se o clichê “time is money”.

Cumpre ainda pensar que a cidadania digital não é igualmente distribuída, pois há uma verdadeira “exclusão digital” e falta de educação digital diante da falta de habilidades digitais para o uso de novas tecnologias, como aponta a Comissão Econômica para a América Latina e Caribe (CEPAL) com ênfase para os povos indígenas do Sul Global, já que a maioria não possui conhecimentos básicos em informática, ou de manipulação de cálculo ou para a instalação de novos dispositivos e softwares e sequer conexão à internet. É o que aponta também o relatório Como promover o acesso universal à Internet durante a pandemia da covid-19, da Organização dos Estados Americanos (OEA), destacando a priorização de áreas urbanas no desenvolvimento de infraestrutura para conectividade na América Latina e no Caribe, não abrangendo, pois, as pessoas em comunidades indígenas rurais e não urbanas.

Assim verifica-se que o conceito de “destruição criativa” de Schumpeter, representando o caráter disruptivo e revolucionário das revoluções tecnológicas na estrutura econômica, permitindo que a partir de dentro, com a destruição do antigo surja algo novo, diante de ações empreendedoras e da inovação, provocando o surgimento das ondas de crescimento econômico, ao que tudo indica não irá se verificar da mesma forma agora na sexta onda tecnológica, pois o impacto, além de muito maior em empregos de forma global, vem com mais ênfase em certos países como Índia, que possui seu foco econômico em serviços como de “call-center”, e demais países do Sul Global como o Brasil, ou seja, não há que se falar em criação de novos tipos de trabalho facilmente adaptáveis por trabalhadores agora desempregados ou inempregáveis.

Isto porque os novos possíveis empregos a serem criados exigiriam novas competências mais sofisticadas, nível universitário e programas de capacitação que tragam uma perspectiva de recolocação e inserção no mercado de trabalho, além do alto custo de tempo, dinheiro e energia em tais “retreinamentos”. Neste sentido, destacam-se os estudos da Organização Mundial para o Comércio, afirmando a perda de 80% aproximadamente de postos de trabalho em decorrência da inovação tecnológica, além de pesquisa da Universidade de Oxford de 2013, apontando para a perda de aproximadamente 35% dos trabalhos do Reino Unido nos próximos vinte anos, pesquisas acerca da perda de metade dos empregos da União Europeia e estudo do IPEA apontando para a perda de 54,5% dos postos de trabalho formais nos próximos seis anos no Brasil.

Outro exemplo paradigmático da crescente precariedade do trabalho é o caso dos denominados “trabalhadores fantasmas” ou “zeladores de dados”, essenciais para a área de inteligência artificial, com a função de moderação de conteúdo de redes sociais, mas invisibilizados e sem qualquer proteção trabalhista, também denominados pela literatura de “cibertariado”.

Neste sentido, a promessa de uma cidadania e democracia digitais, em um otimismo utópico, longe de ensejar apenas respostas “distópicas”, daria lugar a teorias críticas que apontam para o surgimento de novas formas de apartheid social, e da “refeudalização”, como destaca Matteo Pasquinelli no livro The Eye of the Master: Uma história social da inteligência artificial, mencionando o caso dos trabalhadores fantasmas do Sul Global e conforme documentado também por Mary L. Gray e Siddharth Suri em seu livro Ghost Work, ocorrendo tal situação mais gravemente em países do Sul Global, com destaque para África, Venezuela, Índia e Brasil, falando-se em “exploração e opressão algorítmica”.

Por outro lado, a resistência às novas formas de colonialismo, vigilância e exploração, conta cada vez com mais adeptos, e longe de ser alguma novidade, embora haja pouca literatura a respeito no Brasil, mas no direito comparado são vários os exemplos que podem ser citados, com algumas iniciativas desde 2016, a exemplo dos princípios FAIR (Findable, Accessible, Interoperable and Reusable) para gerenciamento e governança de dados, e movimentos em torno de soberania de dados indígenas, com crescimento desde 2019 a 2021, como aponta o Grupo de Trabalho Internacional para Assuntos Indígenas (IWGIA), com destaque para a Global Indigenous Data Alliance (GIDA). No mesmo sentido o Protocolo de Inteligência Artificial Indígena de 2020 da lavra do Grupo de Trabalho do Protocolo de IA Indígena, trazendo uma estrutura para o projeto de sistemas de IA com foco nas prioridades, valores e cosmovisão dos povos indígenas.

Outrossim, o relatório Decolonising the Internet produzido em 2018 pela organização global Whose Knowledge constata a problemática da falta de representatividade mundial dos idiomas e dialetos indígenas, sendo que uma resposta a tal questão seria uma maior geração de conteúdo educacional, científico e acadêmico em idiomas indígenas.

Contudo, ainda há pouca produção científica a respeito no Sul Global, já que a maioria dos exemplos citados são fontes produzidas no Norte Global, como Austrália e Canadá, como bem aponta Vidushi Marda, ativista e membro da Organização Internacional “Article 19”, por isso se fala em falta de diversidade epistêmica e em uma sub-representação do Sul Global em tais temáticas. Como inciativa no Brasil pode ser citado o projeto desenvolvido no âmbito do Instituto de Estudos Avançados da USP, Cátedra Oscar Sala, denominado “DecolonizAI”. Também cabe destacar importante iniciativa do C4Ai e da IBM, no sentido de fortalecer línguas indígenas no Brasil.

Fabio Cozman, Moreschi e Pereira apontam para a situação urgente de se dar voz a tais trabalhadores invisíveis, também denominados por Ricardo Antunes de “infoproletariado”, como no caso dos trabalhadores do Uber, e enfatizam sua situação ainda mais precária no Brasil em comparação com outros países do Sul Global, devido a retrocesso da economia brasileira e ausência de estudos científicos acerca de tal temática, sendo uma “subclasse” ainda mais explorada do que a maioria dos outros “turkers”.

Tal fato é ainda agravado devido ao crescimento do trabalho informal (41,4% da população empregada trabalha de forma informal), e do retrocesso em termos de conquistas trabalhistas e de direitos humanos no mundo em geral, diante da crise dos direitos humanos e crescimento de países não democráticos, conforme aponta o relatório de 2021 da Freedom House, Freedom in the world 2022 – The Global Expansion of Authoritarian Rule, contabilizando o percentual de apenas 20,3% de países livres, no que tange ao regime democrático, apontando para o crescimento de regimes autoritários no decorrer dos últimos 16 anos.

Apesar das “big techs” se beneficiarem do superávit comportamental, além do trabalho altamente qualificado e com altos cargos e salários, a parte visível da IA como designers, programadores, estatísticos, há uma rede crescente de trabalhadores fantasmas em países do Sul Global, diante do alto nível de desemprego, concentração de renda do país, e aumento de formas de “uberização” do trabalho, responsáveis pela realização de microtarefas, não realizáveis por computadores com eficiência, as “tarefas de Inteligência Humana” (HITs), a exemplo da descrição de imagens para projetos, como o do “ImageNet” e da IA da Amazon Alexa, e em plataformas de trabalho.

São os chamados trabalhadores fantasmas ou invisíveis, os quais são colocados na invisibilidade para permitir que o espetáculo da autonomia das máquinas continue, sendo muitas vezes iludidos com promessas de “empreendedorismo” ou de estarem contribuindo para um mundo mais digital, em uma falsa sensação de liberdade, mesmo que vigiada, sem transparência e sem qualquer direito trabalhista.

O caso dos trabalhadores fantasmas brasileiros é ainda mais sensível e degradado, pois, conforme os Termos de Serviço da Amazon, não lhes é permitido receber seu pagamento em dinheiro, sendo obrigados a usar este como créditos no site da Amazon nos EUA. É uma evidente continuação da exploração colonial, em termos que se pode mesmo qualificar como “ciberescravidão”, sobre o que temos desenvolvido pesquisa em parceria com Willis Santiago Guerra Filho.

Em sentido complementar, a reportagem Inside Facebook’s African Sweatshop, publicada na revista Time, aponta para várias irregularidades na “contratação” de trabalhadores africanos que atuam como moderadores de conteúdos para a empresa Facebook, corroborando com algumas análises críticas, em sentido semelhante, sobre o fato de a maior parte do Sul Global ser fonte de matéria prima de dados pessoais, em razão da maior fragilidade ou vácuo legislativo, além de também servirem de mão-de-obra digital barata e informal, “freelancers”, atuando como “zeladores de dados” ou “trabalho de dados” (“data work”) através da mediação de plataformas digitais de trabalho. E no entanto, tal força de trabalho é central para o desenvolvimento das tecnologias emergentes, e em especial para o “big data”, a exemplo da que prestam os africanos (Quênia, Madagascar), assim como trabalhadores da Índia, Venezuela e Brasil contribuindo para a exportação do lucro para as empresas sediadas no Norte Global.

Tais trabalhadores, além de não terem nenhuma proteção em termos de direitos sociais, falando-se no surgimento de um novo subprecariado e na uberização do trabalho, sofrem uma ampliação de formas de vigilância do trabalhador, com a utilização de inteligência artificial além da utilização de seus dados pessoais, sem respeito, muitas vezes às normas da LGPD – Lei Geral de Proteção de Dados, em especial quando se pensa nos princípios da minimização de dados, boa-fé e transparência, e na base legal do consentimento (a qual é frágil mesmo com o respeito aos requisitos do livre, específico e informado consentimento). Inclusive cumpre ressaltar que a base legal do consentimento sequer seria válida ou legítima neste caso diante de flagrante não isonomia e equilíbrio em tais relações jurídicas trabalhistas, demandando uma proteção extra via elaboração de um importante instrumento de “compliance”, a Avaliação do Legítimo Interesse”, a qual deverá ser exigida pela legislação como um documento prévio a ser elaborado, de forma obrigatória, além de prever a forma de sua elaboração e padronização, o que não houve por bem a LGPD em seguir o modelo do GDPR neste sentido.

Valerio De Stefano, professor de Direito do Trabalho na KU Leuven, Universidade de Leuven, Bélgica, aponta para a crescente fiscalização e controle dos empregados, além da falta de transparência quanto a diversos aspectos do trabalho a ser realizado, fazendo parte do que se tem denominado de gestão por algoritmo, monitoramento eletrônico de desempenho e people analytics (análises de pessoas), a exemplo da utilização de tais ferramentas pela empresa Humanyze.

Em sentido semelhante diversos pesquisadores vêm apontando para uma refeudalização, com a crise de países democráticos e crescimento de governos ditatoriais, crise ou morte dos direitos humanos, tais como Thomas Piketty, ao apontar o retorno ao “capitalismo patrimonial”, uma reversão à sociedade pré-moderna, sendo que há um potencial ainda maior de concentração de renda, com a utilização da IA. É o que afirma Glauco Arbix, apontando para o condicionamento das operações e das pesquisas avançadas em IA em um grande oligopólio, tanto nos Estados Unidos quanto na China.

Longe de ser, portanto, uma tecnologia neutra, objetiva e sem “vieses” (bias), o que vem sendo demonstrado por diversas pesquisas acadêmicas e científicas de porte, a IA reflete um imaginário social pré-existente, uma certa ideologia e valores, conforme também o conjunto de dados utilizado e treinado, ou seja, reflete a concepção de mundo dominante, qual seja, ocidental, desenvolvendo uma câmara de eco epistêmica, ampliando casos de discriminação e violação de direitos de grupos vulneráveis como mulheres, hispânicos, negros, indígenas e pobres.

No tocante especificamente à IA generativa, há recentes pesquisas que apontam para a discriminação e vieses, ausência de respeito ao trabalho intelectual e direitos autorais, além do uso de dados pessoais em larga escala sem qualquer consentimento para treinamento dos algoritmos, com destaque para a pesquisa realizada pela Hugging Face e Universidade de Leipzig, na Alemanha, comparando diversas imagens geradas pelas versões 1.4 e 2 do Stable Diffusion e Dalle-2, a fim de verificar vieses de gênero e etnia, e avaliar vieses em profissões, concluindo que os sistemas analisados super-representam significativamente os atributos associados à brancura e à masculinidade, havendo, pois, viés étnico e de gênero.

Como exemplo temos a “Whisper”, desenvolvida pela OpenAI, sendo uma ferramenta multilíngue de reconhecimento, transcrição e tradução de voz desenvolvida por meio da utilização de um banco de dados contendo 680 mil horas de áudio disponíveis na Internet, sem atribuição ou consentimento dos povos indígenas e de modo geral sem qualquer preocupação durante seus primeiros meses de desenvolvimento pelo menos, com medidas de “compliance” adequadas.

Verifica-se, pois, que ocorre a utilização de dados indígenas sem nenhum controle, sem respeito à legislação, o que, consequentemente, reforça as desigualdades de poder históricas e predominantes que invisibilizam os povos indígenas e tiram o controle sobre sua produção cultural. Há com isso um incremento do risco de homogeneização, polarização, manipulação de comportamentos e emoções dos usuários e de segregação ideológica. Isto ocorreria devido ao reforço a visões similares e unilaterais que reforçam tal ponto de vista e minam o discurso e diálogo democrático.

É o que aponta Luciano Floridi, no livro Onlife Manifesto – Being Human in a Hyperconnected Era, falando em riscos para os processos democráticos, normas e direitos fundamentais, como a liberdade de expressão, já que as esferas públicas são cada vez mais controladas pelas corporações, com destaque para o risco de “censura corporativa”, sendo uma censura tanto estética como política, a exemplo de censura a fotografias de mulheres com seios de fora, ou ao se limitar/glosar o conteúdo produzido por drag queens, por serem consideradas falas agressivas, sem se observar o contexto de elaboração de tal linguagem, sem conseguir detectar a intenção e a motivação, ou seja, a moderação de conteúdo realizada pela IA nas redes sociais não é capaz de reconhecer o valor social de determinados conteúdos.

Tal perspectiva envolve o que Ângela Davis denomina de “interseccionalidade”, já que há uma soma de discriminações, diante de vieses diversos, de gênero, raça e classe.

Além de “bias” em termos de discriminações flagrantes e danos a direitos fundamentais, como prisões de inocentes em razão de reconhecimento facial, policiamento preditivo ou sistemas como o Compas (Correctional Offender Management Profiling for Alternative Sanctions) utilizado nos EUA, há também casos de recusa ou aumento de valor de empréstimo, seguro ou financiamento, conforme seu “profile”, respostas negativas em seleção de empregos, a depender do critério e valor considerado pelo algoritmo de IA que faz tal seleção, ou banco de dados utilizado, falta de treinamento adequado dos dados com diversidade adequada, falta de equipe multiétnica, interdisciplinar e representativa de diversos grupos vulneráveis, falhas de arquitetura técnica ou de design, e ausência de sistemas regulatórios.

Tais problemáticas são ainda mais preocupantes em um país como o Brasil com população afrodescendente e indígena, e com histórico de décadas de passado colonial e regime ditatorial, e onde muitas vezes sequer se tem o reconhecimento do racismo, falando-se em uma forma de racismo implícito, não obstante, institucionalizado, ao contrário, por exemplo, dos EUA, onde seria uma situação explícita, o que, por sua vez facilitaria as estratégias de resistência e combate.

Os povos indígenas e outras parcelas vulneráveis da população são mais profundamente afetados pelo desenvolvimento e pela aplicação da IA, sendo a IA considerada como o novo colonizador para os povos indígenas, ou seja, fala-se no surgimento de um novo colonialismo, a exemplo do que ocorre com os desenvolvimentos em biotecnologia de forma mais geral, que dependem dos recursos dos povos indígenas e foram apelidados de exemplos de biocolonialismo.

A IA, portanto, reflete os valores e ideais específicos da visão de mundo científica ocidental, seguindo a ideologia e valores dos programadores que são treinados e trabalham dentro do paradigma da visão de mundo científica ocidental, com base em uma ontologia reducionista de dados e uma epistemologia artificial de algoritmos, não representando a diversidade ontológica e epistemológica do mundo, e refletindo as limitações de visões homogêneas de mundo, na sua maior parte representativas da visão de homens jovens e brancos.

Verifica-se, pois, que os criadores de tecnologia, tal como os seus homólogos do marketing, estariam a codificar a raça, etnia e gênero como características imutáveis que podem ser medidas, compradas e vendidas, em uma verdadeira proliferação da codificação racial, em sistemas rígidos e que perpetuariam “ad eternum” tal classificação, falando-se no surgimento de uma nova casta social.

É o que se pode observar ao se analisar o sistema criminal norte-americano, e também com maior razão o sistema penitenciário brasileiro, já que além de possuir já um viés em sua estrutura, por priorizar seletivamente a captura de negros e latinos, no caso dos EUA, e de “negros jovens”, no caso do Brasil, traduz-se em uma penalidade eterna ao ex-condenado, já que diversos estados possibilitam a negação do direito de votar, mesmo após o cumprimento da pena, uma inexplicável penalidade extra e sem remição, além de ser quase impossível uma recolocação profissional, condenando-os à marginalidade e a um perpétuo retorno ao sistema prisional (afirma-se que 90,5% dos presos, com a utilização do reconhecimento facial pela polícia brasileira, são negros).

Para Ruha Benjamin há um paradoxo em tal sistema: a discriminação legalizada proporcionada pelo sistema penal dos EUA. A própria raça é tecnologia concebida para separar, estratificar e santificar as muitas formas de injustiça experimentadas pelos membros de grupos racializados, como de último demonstra à saciedade os trabalhos de Achille Mbembe.

Contudo, onde há poder há resistência como afirmava Michel Foucault, e daí o apelo à reescrita de códigos culturais dominantes e à incorporação de novos valores e novas relações sociais no mundo. Precisamos de uma “revolução de valor e despertar democrático radical”, como diz Ruha Benjamim, que combata a influência da ética utilitarista na área de IA, com uma abordagem crítica pautada em um “ethos abolicionista”, voltando-se para parcelas da população vulnerável, a exemplo da “abordagem transfeminista dos dados e da justiça social”, e uma abordagem feminista e decolonial, como a da Rede de Pesquisa de Inteligência Artificial Feminista “f<A+i>r, criada com apoio do International Development Research Centre (IDRC) do Canadá, em março de 2020.

Tais exemplos são paradigmáticos pois focam em possíveis respostas e não apenas nos problemas, e, pois, em um sentido não apenas crítico ou reativo, mas proativo, pensando-se em ferramentas e outras práticas em seu potencial de empoderamento por meio também da tecnologia, a partir do reconhecimento da diversidade cultural, da inclusão e do contexto específico de utilização da IA e do treinamento e banco de dados utilizado.

Destaca-se o documento Governing data and artificial intelligence for all – Models for sustainable and just data governance, do Parlamento Europeu de 2022, trazendo a perspectiva de “data justice”, se preocupando com a elaboração de “human rights impact assessments” por priorizar direitos, além de apostar na criação de modelos alternativos de governança que incluam formas locais de soberania digital como a indígena. Aponta ainda para a importância do constitucionalismo digital por oferecer uma linguagem de direitos e para poder desafiar excessos tanto do poder público como do privado, trazendo o aspecto da diversidade e da inclusão e buscando um reequilíbrio das relações no âmbito digital, com o respeito aos direitos fundamentais. No mesmo sentido o documento do AI Now Institute, Report 2018, apontando para a estrutura de Avaliação de Impacto Algorítmico (AIA) compreendendo o envolvimento da comunidade como parte integrante de qualquer processo de “revisão”, tanto como parte do estágio de projeto quanto antes, durante e depois da implementação, com o fim de se garantir a legitimidade, imparcialidade e independência da produção de tal documento de “compliance”.

Nesta mesma linha a Declaração de Toronto prevê que deverá haver uma garantia de que grupos potencialmente afetados e especialistas sejam incluídos como atores com poderes decisórios sobre o design, e em fases de teste e revisão, além da revisão e elaboração de documentos de “compliance” por especialistas independentes.

A IA deve, pois, ser compreendida em sua relação com o contexto sócio-cultural em questão. Com isso, além de se aproximar a teoria da prática, também se contribui para o preenchimento de um “gap“, já que muitas vezes as soluções técnicas envolvendo a IA são tomadas sem estudos empíricos do contexto social. É o que aponta o artigo Designing for human rights in AI. Além disso, pode dar ensejo ao denominado “emergent bias”, que surge com a modificação do contexto de uso da aplicação da IA ou do treinamento de dados. Em sentido complementar é o que aponta o documento Predictably Unequal? The Effects of Machine Learning on Credit Markets, afirmando haver um potencial maior de “bias” em “contextos”, em domínios com documentado passado histórico de discriminação.

Outro importante exemplo de tal abordagem decolonial, repensando-se as ferramentas tecnológicas para incluírem os valores de comunidades e grupos vulneráveis e tornados invisíveis, é a proposta da Coding Rights, em parceria com o Co-Design Studio do MIT, ao experimentarem um jogo denominado Oracle for Transfeminist Futures, com base em pedagogias invertidas, ao criarem uma mudança decolonial, passando dos modelos paternalistas para os solidários, por meio do diálogo intercultural, e do reconhecimento da ética digital intercultural, partindo do reconhecimento da insuficiência de uma perspectiva ética globalizante. Da mesma forma, no âmbito dos Direitos Humanos, há uma reconstrução destes em um sentido mais alargado e inclusivo, por meio do multiculturalismo e do pluralismo, reconhecendo outras abordagens acerca do conceito de “ética”, como aquelas indígenas, e sobre o conceito de dignidade humana, a partir do que significa viver uma boa vida, tal como no passado greco-romano, obliterado pela predominância do judeo-cristianismo no Ocidente.

Outros exemplos podem ser citados, como a organização FATML (Justice, Accountability and Transparency in Machine Learning) com foco na definição, medição e redução do viés algorítmico, a ACM Conference on Fairness, Accountability, and Transparency, e a Algorithmic Justice League (Liga da Justiça Algorítmica), de iniciativa de Joy Bowlamini, trazendo uma visão interseccional de gênero e raça, e o “Compromisso de Segurança Facial”, exigindo das empresas uma posição pública no sentido de mitigar o abuso da tecnologia de análise de reconhecimento facial.

É assim que se vem falando em uma “desobediência epistêmica” na luta contra o “epistemicídio”, morte ou invisibilidade de saberes populares, tradicionais e locais e agora na luta também contra uma nova forma de colonização, por meio do extrativismo de dados, apostando-se em práticas contra-hegemônicas (Epistemologias do Sul) e de tecnologias com “ethos” abolicionista, a exemplo do Movimento de Tecnologias Não Alinhadas (MTNA), com foco na autodeterminação e governança de dados de cada comunidade.

Ruha Benjamin também destaca vários exemplos de ferramentas com o “ethos abolicionista”, e na forma de um design subversivo, ao contrário do design dominante como parte de um projeto colonizador, com base na equidade e na solidariedade, e para engendrar a libertação, tal como a “Appolition”, a qual direciona os recursos para que as pessoas sejam livres. A iniciativa arrecadou “doações” distribuindo estas para organizações locais para pagamento de fianças, em especial no caso de negros e latinos, os quais não teriam condições financeiras de arcar com tal valor, afetando estas de forma desproporcional.

Outras iniciativas importantes são: o trabalho da Stop LAPD Spying Coalition e outros esforços de combate à vigilância; o “Auditing Algorithms”, desenvolvendo uma comunidade de investigação em torno da prática da auditoria independente; o “Data & Society Research Institute”, trazendo fundamentos para a elaboração de “responsabilidade algorítmica”; o modelo “DiscoTech” (“descoberta de tecnologia”), desenvolvido pela Detroit Digital Justice Coalition visando a desmitificação da tecnologia como primeiro passo para mobilizar a participação da comunidade no questionamento e na formação de decisões “impulsionadas por dados” que têm impacto na vida das pessoas; o projeto “Os Nossos Corpos de Dados” (ODB), recontando as histórias de vigilância e discriminação baseadas em dados a partir da perspectiva daqueles que são normalmente vigiados e tornados invisíveis; a “Allied Media Network” e o Portal Tecnológico Comunitário de Detroit, com foco em princípios justiça digital. A organização Stop LAPD Spying Coalition, está empenhada na investigação de ação participativa para compreender as experiências dos membros da comunidade de intensificar a vigilância; a “Hyphen-Labs”, e o desenvolvimento de desenhos subversivos que impedem o reconhecimento facial; o “Data for Black Lives”, um coletivo crescente de organizadores, acadêmicos, cientistas de dados, apontando para a necessidade de elaboração de um Código de Ética de Dados, e a urgência de equipes envolvendo cientistas de dados e investigadores negros.

As ferramentas abolicionistas, desta forma, preocupam-se não só com as tecnologias emergentes, mas também com a produção diária, a implantação e a interpretação de dados. Exige-se uma abordagem mais holística e uma abordagem orientada para a justiça e emancipatória da produção, análise e envolvimento público de dados como parte do movimento mais amplo para as vidas negras, indígenas e de outras populações vulneráveis.

A justiça, neste sentido, não é um valor estático, mas uma metodologia contínua que pode e deve ser incorporada na concepção tecnológica. Também por esta razão, é vital que as pessoas envolvidas no desenvolvimento tecnológico se associem àqueles que fazem um importante trabalho sociocultural honrando ferramentas narrativas através das artes, humanidades, e organização da justiça social.

Tal nova forma de colonialismo fica clara se pensarmos, por exemplo, que quando os dados são coletados de comunidades indígenas, eles devem ser reconhecidos como dados indígenas que são coletados em um contexto indígena, com respeito a direitos processuais e materiais, tal como disposto na Declaração das Nações Unidas sobre os Direitos dos Povos Indígenas, o que até o momento não vem sendo objeto de preocupações práticas e concretas na área de proteção de dados e inteligência artificial.

Os povos indígenas têm o direito de participar da tomada de decisões em assuntos que afetem seus direitos, por meio de representantes escolhidos por eles mesmos, de acordo com seus próprios procedimentos, bem como de manter e desenvolver suas próprias instituições indígenas de tomada de decisões. É o que preceitua o modelo de soberania de dados e de governança de dados Maori defendendo os direitos e interesses inerentes que tais grupos possuem em relação a qualquer tipo de tratamento de dados pessoais no âmbito da IA.

Outro exemplo de tal abordagem decolonial é o Indigenous Navigator, permitindo o controle, gerenciamento e a transparência acerca dos dados pessoais de comunidades indígenas, e de como seus direitos são reconhecidos. Ao contrário de como se dá em geral, os dados pessoais coletados não são os dados estatísticos oficiais, mas dados que refletem as percepções, os valores, a ideologia e as experiências dos povos indígenas. Contudo, embora seja previso que em tal processo há o reconhecimento do direito de consentimento livre, prévio e informado, este revela-se bastante frágil se pensarmos que diversos documentos, como “termos de uso”, por exemplo são típicos contratos de adesão e não dispõem de informações claras, transparentes, dificultando o entendimento e compreensão.

O modelo governança de dados Maori refle, pois, os princípios e o histórico das lutas das comunidades Maori na Nova Zelândia, trazendo a previsão da proteção e equilíbrio entre os direitos individuais e coletivos, com o respeito à cultura Maori e à sua visão de mundo para a formação do processo de decisões tomadas em todo o ecossistema de dados, em um processo de co-desenho, ao contrário como se dá geralmente, quando os dados pessoais e informações são produzidos por terceiros, fora de tal representatividade adequada, com a reescrita de suas histórias e valores.

Há ainda a previsão de uma licença social para o uso dos dados pessoais de tal comunidade, estabelecendo um “framework” a ser respeitado para qualquer tipo de tratamento de tais dados pessoais, qual seja, o respeito aos valores sociais e à visão de mundo de tal comunidade.

São iniciativas que focam não apenas no âmbito regulatório, mas também técnico, social e ético, ampliando-se o olhar para a governança da inteligência artificial, e para a necessária construção de novos imaginários sociais.

Do que se trata então, é de se (re)imaginar novas possibilidades para a relação humano-algoritmo e neste sentido se repensar a relação natureza e cultura, técnica, e, portanto, também a partir da valorização de metodologias outras, que priorizem a imaginação e a sensibilidade, atingindo com tal cruzamento e “antropofagia”, novos devires, novas possibilidades, e novos modos de habitar e viver, diante da interface humano-algoritmo, com destaque o papel da poética, em especial, da poética negra e indígenas como uma poética do futuro.

Trata-se de pensarmos na necessidade de justiça algorítmica em novas bases, com fulcro em um novo paradigma, já que a equidade e justiça algorítmica convencional estão ainda centradas no Ocidente e em uma visão eurocêntrica, de acordo com seus valores, métodos e concepções.

Tais temáticas são essenciais e necessitam ser abordadas adequadamente, em uma perspectiva de estudo crítico e inter/transdisciplinar da IA, diante da dissolução das fronteias entre exatas e humanidades, bem como para se pensar no desenvolvimento das bases epistemológicas e fundacionais para a IA voltada ao Sul Global, envolvendo, outrossim, reflexões sobre qual o nível adequado de proteção a direitos fundamentais e humanos de populações vulneráveis, via regulação e governança, em face das novas tecnologias disruptivas, em especial da IA. Vislumbramos, inclusive, em nossa pesquisa antes referida, possa estar despontando mais que nova geração, verdadeira nova dimensão daqueles direitos, neste processo de ciberescravização, cujos sujeitos são já híbridos sócio-tecnológicos, direitos a serem consagrados em um novo contrato social, agora tecnosocial, além de natural, a ser efetivamente firmado e implementado, assim evitando a situação catastrófica em que nos encontramos, em escala planetária.

Ao invés de propostas com base em um convencionalismo de cima e ocidental, dentro de uma lógica da colonização digital e da monocultura, visa-se o desenvolvimento de uma IA levando-se em consideração a “co-construção” pelos grupos vulneráveis, afirmando-se seu direito de contribuir e auferir benefícios dos ecossistemas de dados, sua autodeterminação informativa, e sua soberania de dados, como forma de controle sobre os dados pessoais. Tal proposta se fundamenta em uma perspectiva de decolonização da governança de dados e da inteligência artificial, e, portanto, de uma IA democrática, multicultural e inclusiva.

Tal perspectiva envolve também uma decolonização do imaginário social, já que até o momento a governança de dados e a IA se pautaram por uma matriz colonial e eurocêntrica, sem levar em consideração os modos de vida e as epistemologias próprias do povo indígena e da população afro-descendente, ou seja, os dados pessoais são produzidos por terceiros, na maior parte das vezes, fora de tal representatividade adequada, com a reescrita de suas histórias e valores, ocasionando, pois, a desconexão com tais contextos e a possível ocorrência de bias”, já que há uma definição e conceituação através do olhar e das narrativas de colonização, em um estado de dependência do Estado colonizador.

________________
(As opiniões expressas nos artigos publicados no Jornal da USP são de inteira responsabilidade de seus autores e não refletem opiniões do veículo nem posições institucionais da Universidade de São Paulo. Acesse aqui nossos parâmetros editoriais para artigos de opinião.)


Política de uso 
A reprodução de matérias e fotografias é livre mediante a citação do Jornal da USP e do autor. No caso dos arquivos de áudio, deverão constar dos créditos a Rádio USP e, em sendo explicitados, os autores. Para uso de arquivos de vídeo, esses créditos deverão mencionar a TV USP e, caso estejam explicitados, os autores. Fotos devem ser creditadas como USP Imagens e o nome do fotógrafo.