Trazendo para o contexto da inteligência artificial (IA), nos moldes em que a conhecemos hoje, ela é um instrumento de um projeto neocolonial — uma ferramenta colonizada que carrega as marcas de uma lógica colonial. Quando deixa de ser apenas uma ferramenta para se tornar um agente, a IA impõe uma visão de mundo que negligencia a diversidade cultural e perpetua desigualdades. Ou seja, uma inteligência artificial colonizada é moldada para refletir interesses e ideologias de culturas consideradas dominantes. Como resultado, a IA se torna um agente que tenta promover confluência, mas sem conseguir integrar verdadeiramente todas as perspectivas, impondo uma uniformidade homogeneizante e subordinando diversas formas de expressão a uma única lógica.
E como isso acontece? Por meio dos dados. Manuel Castells, no livro A Galáxia da Internet, analisou as características das pessoas que utilizavam a internet. Observou-se que diferentes grupos de pessoas produziam dados na internet, e esta produção de dados (mensagens, textos, fotografias, vídeos) mostrou que 71% dos produtores de dados na internet eram pessoas brancas e 23,7% eram latino-americanos. Isso já demonstra, como afirma Castells, “a diferenciação entre os que têm e os que não têm Internet, acrescentando à divisão já existente de desigualdade e exclusão social”.
Esses primeiros dados da internet ajudaram a alimentar bases de dados utilizadas no treinamento de inteligências artificiais. Entretanto, um vasto volume de dados só faz sentido se for categorizado, organizado e interpretado para um propósito específico. Esses objetivos incluem a construção de outras IAs, destacando a importância da curadoria e do processamento adequado dos dados. Para desenvolver inteligências artificiais eficazes e especializadas, precisa-se garantir que os dados sejam preparados visando treinar modelos que possam responder de maneira precisa a desafios e objetivos bem definidos.
Os dados são políticos? Sim! Cada pessoa que utiliza a internet deixa um rastro de suas movimentações, comportamentos e características. Esses dados — sejam textos, imagens, interações do usuário ou outros inputs digitais — refletem conhecimentos, preferências e estilos de vida. Langdon Winner, em seu artigo Do Artifacts Have Politics?, afirma que tecnologias percebidas como ferramentas neutras podem ter sido projetadas para produzir um conjunto de consequências inerentes, de forma lógica e temporalmente anterior a qualquer um de seus usos declarados. Em outras palavras, a própria concepção de uma tecnologia pode carregar implicações políticas e éticas que devem ser consideradas antes mesmo de seu uso.
A questão das deepfakes é um exemplo de como a inteligência artificial é muitas vezes transformada em um bode expiatório para as ações humanas. As IAs são frequentemente vistas como detentoras de um poder produtivo, que não é necessariamente coercitivo ou opressivo. Contudo, existem exceções, como as tecnologias de visão computacional utilizadas pela plataforma Smart Sampa em São Paulo, que tentam identificar possíveis criminosos por meio das 200 mil câmeras instaladas na cidade. Este uso destaca a falta de conhecimento governamental sobre o funcionamento ontológico dessas tecnologias, ou seja, sobre como elas operam e os impactos reais de seus resultados em grupos minorizados.
O mesmo se aplica às tecnologias de IA, que, em essência, são criadas e moldadas pelas nossas intenções e comportamentos. As deepfakes, por exemplo, que distorcem informações, demonstram que o problema não está apenas na ferramenta, mas também nos objetivos e usos que são atribuídos a ela. Em vez de culpar apenas a tecnologia, devemos examinar como nossa estrutura organizativa, ética e cultural pode estar incentivando seu uso impróprio.
E, em vez de nos afastarmos das tecnologias de inteligência artificial, precisamos ensiná-las. Isso serve aos que virão depois de nós, na academia ou fora dela, a observar o mundo pela ótica da “contracolonização da inteligência artificial”. Trago mais uma vez as palavras de Nêgo Bispo: “Como podemos contracolonizar falando a língua do inimigo?”, perguntaram a ele. Ao que ele respondeu: “Vamos pegar as palavras do inimigo que estão potentes e vamos enfraquecê-las, e vamos pegar as nossas palavras que estão enfraquecidas e vamos potencializá-las”.
Trazendo para o contexto da inteligência artificial, a lógica das big techs é criar uma estrutura em que as máquinas são programadas através do aprendizado de máquina (machine learning) para aprender de forma colonizadora, carregando estereótipos e uma visão distorcida que amplifica as desigualdades. No entanto, ao adotarmos a perspectiva de Nêgo Bispo, a contracolonização requer confluir com as máquinas para enfraquecer as palavras que as inteligências artificiais aprenderam para nos marcar e, assim, potencializar as nossas palavras — nortistas, indígenas, negras.
Precisamos ensinar a máquina a “desaprender o que lhe foi ensinado” — um desafio, reconheço, visto que as IAs têm sido programadas há mais tempo para serem colonizadoras, carregando um conhecimento distorcido que nega a diversidade e amplia os estereótipos. No entanto, devemos confluir com as máquinas observando o mundo pela ótica da contracolonização, pode e deve ser feita essa reprogramação, ou “refatoração antropológica”, termo que utilizo na minha tese de doutorado. Confluir com as máquinas é aprender e ensinar.
Assim, é importante refletirmos sobre o que temos ensinado às inteligências artificiais. É nossa responsabilidade garantir que as inteligências artificiais contribuam para a sociedade por meio de auditorias algorítmicas sobre como essas tecnologias são programadas e utilizadas. Aprendamos, então, a contracolonizar nossas abordagens e ensinar nossas máquinas a fazer o mesmo, em prol de um futuro com inclusão e diversidade. “Não tenho dúvida de que a confluência é a energia que está nos movendo para o compartilhamento, para o reconhecimento, para o respeito. Um rio não deixa de ser um rio porque conflui com outro rio; ao contrário, ele passa a ser ele mesmo e outros rios, ele se fortalece”, diz Antônio Bispo.
O mesmo princípio se aplica ao nosso relacionamento com as tecnologias de inteligência artificial. Não precisamos rejeitá-las ou nos distanciar delas, mas contracolonizar e moldar sua estrutura organizativa, promovendo uma confluência entre os valores éticos humanos e o potencial tecnológico. Só assim podemos construir um futuro onde a diversidade e a inclusão serão respeitadas, e a tecnologia será usada para o bem das humanidades.
O presente texto advém da palestra realizada na mesa redonda Big techs: O desafio da inteligência humana diante da inteligência artificial em defesa dos direitos humanos e da natureza, conduzida pela professora Ivânia Vieira (FIC-UFAM) na 11ª edição do Pré-Fórum Social Panamazônico (Pré-Fospa). O evento, que precede a realização do Fórum Social Panamazônico (Fospa), ocorreu na sede do Instituto Nacional de Pesquisas da Amazônia (Inpa) no dia 11 de maio de 2024.
________________
(As opiniões expressas nos artigos publicados no Jornal da USP são de inteira responsabilidade de seus autores e não refletem opiniões do veículo nem posições institucionais da Universidade de São Paulo. Acesse aqui nossos parâmetros editoriais para artigos de opinião.)