Inteligência Artificial responsável e a regulamentação: notas sobre a questão da IA centrada no humano

Por Elen Nas, pós-doutoranda na Cátedra Oscar Sala, do Instituto de Estudos Avançados da USP

 Publicado: 12/07/2024
Elen Nas – Foto: Reprodução/IEA-USP
Estamos há mais de um ano dos movimentos iniciais no legislativo para a regulamentação da inteligência artificial (IA) com o PL 2338/2023, debatido na Cátedra Oscar Sala com a presença do relator, o senador Eduardo Gomes, em 24 de maio de 2023.

O projeto segue as diretrizes do relatório extenso produzido pelo CJSUBIA, onde nos cabe, a partir de uma compreensão transdisciplinar, trazer à reflexão alguns tópicos:

A inteligência artificial centrada no humano (HCAI: human centered AI) é um conceito que emerge para enfatizar que a IA é criada para auxiliar e amplificar as ações humanas e não, do contrário, para limitar e prejudicar o humano.

Entretanto, é importante entender de que humano estamos falando, já que o humano que utiliza o IoT (internet of things ou internet das coisas) é um tipo específico de humano, que possui acesso a tecnologias através de recursos culturais e socioeconômicos. Este é um exemplo para que entendamos que a universalidade do humano é falha, sendo justamente ela um dos grandes problemas de vieses na IA que resultam em impactos negativos para muitos.

Isto quer dizer que a universalização do humano é reducionista, tende a colocar no centro tipos de humanos e necessidades que não representam todos os seres humanos e comumente super-representam alguns tipos em contextos positivos (posições de protagonismo) ou negativos (condições de marginalização).

Em adição, uma perspectiva não-antropocêntrica da IA não é centrada no humano, mas na sociedade como um todo, partindo das responsabilidades sobre os impactos sociais e ambientais e entendendo que existe uma interseccionalidade no debate desde que os grupos e pessoas mais impactados por injustiças são frequentemente os que estão em territórios mais impactados pelos desgastes ambientais. Isso ocorre em virtude de extração de minérios e fenômenos similares relacionados às necessidades de produção e descarte de tecnologias que são guiadas pelas projeções de lucros das indústrias, sendo o aumento do lixo eletrônico um efeito colateral da obsolescência programada, que acarreta, além de outros impactos, prejuízos à saúde.

Uma perspectiva bioética da IA deve considerar os princípios de justiça e, neste sentido, a centralidade no humano significa o alinhamento da IA com os direitos humanos universais. Por outro lado, devemos estar atentos que para os princípios de “beneficência” e “não-maleficência” precisam responder aos danos ambientais e sociais como um todo, já que estar “centrado no humano” pode levar a tecnosolucionismos que podem ser justificados como medidas para atender necessidades humanas, sem considerar a relação do consumo de recursos com as soluções que se buscam atender, seus reais benefícios e para quem.

Assim, entender a “responsabilidade” como uma necessidade ética é uma perspectiva mais ampla do que o conceito da IA centrada no humano. Sendo assim, para que a IA seja responsável, as esferas de governança devem considerar que a responsabilidade sobre o desenvolvimento, implementação e usos da IA pressupõem perspectivas éticas que transcendem a capacidade e abrangência de quaisquer regulamentações.

E, ainda, que as perspectivas éticas dizem respeito não apenas ao controle humano da IA, mas buscar investigar e entender que humanos estão no controle da IA. Desse modo, para que seja possível a soberania do país e de seus territórios, as tecnologias que alcançam escala global são produzidas localmente dentro de interesses particulares, já que até a ideia de fazer algo para a “salvação da humanidade” também corresponde a um tipo de imaginário, uma forma de ver o mundo que não é a mesma para todas as culturas que coabitam o planeta Terra.

Contudo, podemos sim encontrar convergências interculturais para determinar que a IA deve atender a um crescimento inclusivo, assim como favorecer o desenvolvimento sustentável, o bem-estar, a não discriminação, a justiça, equidade e inclusão. Estes fatores envolvem, muitas vezes, em até mesmo descartar a IA como opção para muitos casos e aplicações.

Para decisões informadas, a sociedade precisa ter acesso a um mapeamento sobre que IAs já estão em uso, onde e por quais empresas, instituições e como elas também estão distribuídas de maneira independente no mercado.

Para atender aos princípios de uma IA responsável, é necessário indicar que a IA e quaisquer outros sistemas algorítmicos devem respeitar a autodeterminação. Por outro lado, a liberdade de decisão e escolha requer um programa de letramento, não apenas para usuários, como para representantes dos poderes executivo, legislativo, judiciário e demais instituições da sociedade civil.

Outro ponto é que, para garantir a transparência, explicabilidade, inteligibilidade, segurança e confiança da IA, é necessário viabilizar sua auditabilidade através de programas de formação de auditores que representem as mais diversas camadas da sociedade.

Do mesmo modo, entender quais os desafios a serem enfrentados para colocarmos em prática as propostas de regulamentação, já que dentro do atual modelo de expansão das tecnologias emergentes há uma tendência à formação e consolidação de monopólios que dificultam os ideais de livre iniciativa, livre concorrência e um plano robusto que atenda a defesa do consumidor nos quesitos de privacidade, respeito à autonomia e transparência.

Quanto aos direitos apontados, como o de ter informação prévia quando as interações estão sendo feitas com uma IA, direito à explicação sobre decisões, e o direito a contestar decisões, estes são dependentes de soluções técnicas e de governança da IA que ainda não estão disponíveis.

Sendo assim, há uma necessidade de novos desenvolvimentos que envolvam não apenas novas tecnologias e letramento, como também tecnologias sociais que se relacionem à criatividade e engajamento.

Quanto aos problemas dos vieses discriminatórios que vêm sendo tratados por empresas e estudados há pelo menos vinte anos sem, contudo, terem sido solucionados, indicam a existência de problemas estruturais sobre como os dados são coletados, tratados e organizados. Assim, até o presente momento não há solução que não seja parcial, e uma possibilidade a médio e longo prazo requer fomento à pesquisa e desenvolvimento (P&D). Lembrando que P&D requer novas metodologias com especial atenção aos valores éticos evocados pela IAR desde a coleta, tratamento e classificação dos dados para novos desenvolvimentos.

Finalmente, as considerações éticas embutidas no conceito da IA devem compreender que as tecnologias de interação diretas com usuários trazem consigo desafios cognitivos que impactam grupos de diferentes maneiras, tornando mais vulneráveis todos que já estão em situação de desvantagem na esfera socioeconômica, de modo que as decisões de implementações de IA de maneira obrigatória por instituições precisam ser avaliadas não apenas por especialistas, como também através de consulta pública em conversas comunitárias, considerando o consentimento informado e mesmo a possibilidade de recusa em se adotar a IA pelos grupos, como por exemplo em atendimentos à saúde e planejamentos educacionais.

Dada a complexidade do tema de regulamentação da IA responsável e ao teor das propostas em curso, entende-se que até que se eleja um modelo para a governança da IA responsável e se iniciem as implementações relacionadas a desenvolvimentos técnicos para colocar em prática o quesito “explicabilidade”, serão necessários caminhos que facilitem a formação de auditores que representem as mais diversas áreas profissionais e representantes do público leigo presente em comunidades, associações e diversos tipos de organizações.

E se o texto do PL cita a necessidade de “desenvolvimentos experimentais adicionais”, assim como outras medidas sugeridas, isto indica que temos ainda um longo caminho pela frente, onde não será possível acompanhar a velocidade requerida pelo mercado e indústria para os usos imediatos da IA, até mesmo em um futuro próximo, sendo este um elemento de desafio dentro dos diálogos, trocas comerciais e alcance das tecnologias emergentes em escala global.

________________
(As opiniões expressas nos artigos publicados no Jornal da USP são de inteira responsabilidade de seus autores e não refletem opiniões do veículo nem posições institucionais da Universidade de São Paulo. Acesse aqui nossos parâmetros editoriais para artigos de opinião.)


Política de uso 
A reprodução de matérias e fotografias é livre mediante a citação do Jornal da USP e do autor. No caso dos arquivos de áudio, deverão constar dos créditos a Rádio USP e, em sendo explicitados, os autores. Para uso de arquivos de vídeo, esses créditos deverão mencionar a TV USP e, caso estejam explicitados, os autores. Fotos devem ser creditadas como USP Imagens e o nome do fotógrafo.