Dilemas da inteligência artificial responsável

Por Luís Eduardo Alonso Viegas, pesquisador da Cátedra Oscar Sala do Instituto de Estudos Avançados da USP

 Publicado: 29/11/2024 às 13:57
Luís Eduardo Viegas – Foto: Arquivo pessoal
O termo inteligência artificial responsável vem sendo amplamente utilizado em nível global há alguns anos, com referências em diversas publicações da academia, instituições globais, organizações normativas e empresas. Não há uma única definição para IA responsável, mas é possível perceber questões éticas como um pilar frequentemente incluído na maioria das definições encontradas.

O relatório AI Index 2024, publicado pelo instituto Human-Centered AI (HAI) da Universidade Stanford, destaca algumas dimensões a serem usadas como balizadores da IA responsável: privacidade e governança de dados; transparência e explicabilidade; segurança e proteção; sustentabilidade; e confiabilidade. O relatório Global Index on Resposible AI, publicado pelo Global Center on AI Governance e usado como referência pela Unesco ao tratar do tema, descreve a IA responsável como a fundação para um futuro sustentável e ético desta tecnologia e usa como definição a concepção, desenvolvimento, implementação e governança da IA de forma que respeite e proteja todos os direitos humanos e defenda os princípios da ética da IA em todas as fases de seu ciclo de vida e de sua cadeia de valor. A publicação reconhece desafios como a falta de um framework ético padronizado e o dilema entre a inovação rápida e desenvolvimento da regulação, e afirma que todos os agentes envolvidos no desenvolvimento e uso da IA devem assumir responsabilidade por impactos sociais e ambientais decorrentes de suas decisões e ações.

O documento Recomendação do Conselho de IA, da Organização para a Cooperação e Desenvolvimento Econômico (OCDE) descreve cinco princípios complementares entre si para uma gestão responsável de inteligência artificial confiável: crescimento inclusivo, crescimento sustentável, desenvolvimento e bem-estar; respeito pelo estado de direito, pelos direitos humanos e por valores democráticos, incluindo justiça e privacidade; transparência e explicabilidade; robustez, segurança e proteção; e responsabilização.

A Aliança pela Governança de IA do Fórum Econômico Mundial, que reúne representantes da indústria, governos, instituições acadêmicas e organizações da sociedade civil, manifesta um compromisso compartilhado para o desenvolvimento responsável da IA, assegurando considerações éticas em cada estágio da cadeia de valor, do desenvolvimento à aplicação e governança, e afirma que ética, transparência, diversidade e inclusão precisam ser consideradas ao se tratar sobre IA responsável através de princípios que incluem, entre outros, robustez, transparência, explicabilidade, justiça e equidade.

As definições anteriores são apenas algumas das disponíveis. De acordo com o já mencionado relatório AI Index 2024, houve em 2023 um foco significativo sobre o desenvolvimento e implantação responsáveis de sistemas de IA e a comunidade envolvida com o tema também tem se tornado mais preocupada em avaliar o impacto dos sistemas de IA e mitigar os riscos para os afetados.

Mas existem lacunas. Além das já citadas falta de um framework padronizado e o (questionável) dilema entre inovação e regulação, há muitas questões sem respostas que precisam de reflexão mais profunda e que demandam escolhas da sociedade de forma mais abrangente, pois envolvem aspectos que vão muito além das questões tecnológicas. O objetivo aqui é trazer algumas destas questões, que se apresentam como dilemas, como forma de promover reflexão e buscar contribuir para o debate na busca de possíveis caminhos para que IA responsável seja algo concreto na agenda das organizações de diferentes setores e esferas em um momento tão importante e de profunda mudança na estrutura da sociedade.

Energia: consumo desenfreado ou desenvolvimento sustentável?

A crescente demanda de energia vem sendo bastante discutida como parte do debate em torno da inteligência artificial sob duas perspectivas: a demanda de energia por processar interações com modelos ou ferramentas de IA e a demanda total de energia pelos grandes atores globais da tecnologia.

O relatório Powering Intelligence: Analyzing Artificial Intelligence and Data Center Energy Consumption, publicado pelo Electric Power Research Institute, afirma que o uso de ferramentas de IA generativa para realizar consultas gera um consumo de energia que chega a 10 vezes o consumo de energia demandado para realização de ação similar através de um buscador convencional na web.

Os datacenters que fornecem serviços de computação em nuvem e que hospedam, entre outros, os sistemas e modelos de IA consumiram na última década de 1 a 2% do consumo global de energia. A revista The Economist cita uma declaração de um executivo da indústria de processadores que declarou que os datacenters podem chegar a consumir até 25% de toda a energia consumida nos Estados Unidos até o final desta década, o que hoje representa 4% ou menos.

Este aumento na demanda por energia tem movimentado empresas do setor, que enfrentaram desafios de demanda durante as últimas duas décadas e que agora percebem um potencial aumento de receita e demanda, desencadeando promessas de investimentos da ordem de dezenas de bilhões de dólares para os próximos cinco anos. As 40 empresas do setor de energia elétrica nos Estados Unidos com maior valorização de ações no último ano tiveram seu valor de mercado valorizado, em média, por 57%, sendo que algumas destas empresas chegaram a valorizar mais de 100% no mesmo período.

A energia nuclear vem se consolidando como um caminho viável a países do Norte Global. Atualmente é a segunda principal fonte de energia de baixa emissão de poluentes e o investimento em pequenos reatores modulares (SMR, na sigla em inglês) vem crescendo. Três das maiores empresas globais de tecnologia anunciaram nos últimos meses investimentos e acordos envolvendo energia nuclear. Isso parte da premissa que fontes renováveis e baterias não serão capazes de fornecer energia suficiente atendendo à relação custo/eficácia necessária para abastecer seus datacenters “famintos por energia”.

Este cenário permite um questionamento legítimo se teremos IA realmente responsável e se o termo IA responsável não seria um paradoxo, sobretudo pelo fato de que a energia consumida atualmente ainda é predominantemente baseada em fontes poluentes ou, como no caso da energia nuclear, com importantes riscos associados. A autora e pesquisadora Kate Crawford insiste que, “em vez de tecnologias imaginárias, são necessárias ações pragmáticas para limitar já os impactos ecológicos da IA e que a indústria tecnológica deveria priorizar o uso de menos energia, construir modelos mais eficientes e repensar a forma como projeta e utiliza datacenters”.

Fica em aberto a pergunta: os investimentos para ampliar a capacidade de geração e distribuição de energia renováveis ou de baixa emissão de poluentes estarão concentrados apenas no suprimento da demanda adicional de energia ou serão dedicados também à substituição de fontes mais poluentes que compõe a matriz energética atual em nível global, em linha com o sétimo Objetivo de Desenvolvimento Sustentável, compromisso assumido pela Organização das Nações Unidas?

Em todo caso, um cenário como este pode representar uma oportunidade para países que, como o Brasil, contam com uma matriz energética favorável e que possuem maior potencial de expandir sua capacidade energética a partir de fontes limpas ou de baixa emissão de poluentes.

Ser ou não ser transparente: eis a questão

Um pilar frequentemente mencionado quando se fala de IA responsável é transparência, que tem um sentido mais amplo do que explicabilidade, embora alguns autores tratem os dois termos como sinônimos. Transparência inclui divulgar claramente quando e de que maneira uma Inteligência Artificial é usada como parte de uma solução ou do desenvolvimento de um produto, quais modelos e bases de dados são usados, que dados são coletados e o que é feito com esses dados, e a clareza sobre o porquê do comportamento dos modelos de IA, mesmo que não seja uma compreensão plena dos porquês, o que é comum devido à opacidade dos modelos.

Transparência também pode ser vista como uma forma de gerar confiança, partindo do princípio de que agir de forma ética gera confiança e agir de forma antiética a destrói. Como escreve o pesquisador e autor Reid Blackman, implementar inteligência artificial de forma ética é parte de um esforço mais amplo e que contribui para gerar confiança.

O grau de transparência a ser implementada e em que situações adotar maior transparência não são questões objetivas. E para provocar ainda mais debate e reflexão, há situações que sugerem resultados contraditórios sobre a inclusão de transparência como parte da adoção de inteligência artificial.

Pesquisa realizada nos Estados Unidos indicou que a inclusão do termo “inteligência artificial” na descrição do produto influencia negativamente a etapa de tomada de decisão do consumidor e que a menção do uso de IA na descrição de um produto reduz a probabilidade de consumidores indicarem uma intenção de compra desse produto.

Efeito similar foi detectado no campo eleitoral. Um experimento online realizado pelo Center on Technology Policy, da Universidade de Nova York, concluiu que rótulos informando sobre o uso de inteligência artificial prejudicam os candidatos que usaram IA generativa. Anúncios que incluíram rótulos sobre o uso de IA foram classificados pelos entrevistados como menos confiáveis, menos interessantes e menos precisos, e que eram mais a alertar ou denunciar os anúncios do candidato nas redes sociais. Este padrão de resposta se manteve tanto para anúncios com conteúdo enganoso quanto anúncios com uso inofensivo de IA generativa. Candidatos que incluíram rótulos sobre o uso de IA tiveram suas avaliações reduzidas pelos entrevistados que pertenciam ao mesmo partido político do candidato ou que não tinham filiação partidária. O estudo alerta que os efeitos do rótulo foram pequenos e que quase 40% dos entrevistados sequer lembravam de terem visto rótulos. Além disso, destaca que a redação dos rótulos é importante, ainda que seja difícil prever como as pessoas interpretam a informação, podendo, inclusive, supor que métodos como edição de vídeo tenham sido usados.

Ao refletir sobre os estudos mencionados anteriormente, surgem muitas dúvidas e perguntas. O que gera um efeito negativo na percepção dos entrevistados com relação ao uso de IA? Um maior letramento digital da população contribuiria para atenuar uma visão negativa sobre o uso da IA? Que estímulo terão organizações e indivíduos para informar sobre o uso da tecnologia? A transparência seguirá na pauta ao se discutir regulação sobre o uso de IA?

Fundo de compensação: alternativa em última instância ou aceitação prematura de danos evitáveis?

Uma abordagem que vem sendo tratada como uma forma de indenizar partes que venham a sofrer danos decorrentes de sistemas de IA é a criação de um fundo de compensação. Esta estrutura seria composta por uma comunidade de partes interessadas ou pela sociedade como um todo, visando distribuir os riscos da responsabilização. É apontada como uma forma de lidar com os desafios envolvendo questões como responsabilização, incerteza, opacidade de modelos e dificuldade em avaliar o porquê de certos comportamentos de modelos, o que ocorreu de errado ou inesperado e quem deve indenizar a parte lesada pelos danos sofridos.

As discussões sobre a criação de fundo compensação para danos relacionados à inteligência artificial ainda estão em estágio inicial e se espelham em outros fundos de compensação que existem, como, por exemplo, fundos para reparação de danos ambientais (poluição marinha e danos decorrentes de atividades ligadas à extração e transporte de petróleo ou à produção de energia nuclear). Ao usar outros fundos de compensação como referência, defensores desta modalidade buscam compreender como encontrar um equilíbrio entre implementar um mecanismo de reparação e estimular a inovação ou os benefícios econômicos decorrentes de uma atividade perigosa.

O debate em torno de alternativas como o fundo de compensação é legítimo para casos extremos, tendo em vista os desafios inerentes a esta tecnologia. Mas, ao mesmo tempo, cabe a reflexão se isso não seria uma forma de aceitar prematuramente a ocorrência de danos e a inexistência de uma alternativa viável para enfrentar os desafios existentes para evitar a ocorrência de danos pelo uso da IA. A indústria e as organizações que adotam esta tecnologia como parte de seus produtos e serviços deveriam insistir na busca por alternativas para reduzir os riscos e promover maior capacidade de compreensão de causas, viabilizando a responsabilização por eventuais danos causados, intencionalmente ou não, a outras partes a partir do uso de IA.

Perspectivas

Os dilemas descritos geram mais dúvidas do que esclarecimentos, mais perguntas para as quais não temos respostas, e remetem a uma frase do autor Kay Fu Lee, originalmente escrita ao refletir sobre o futuro do trabalho, mas que se mostra aplicável diante dos dilemas apresentados: “Estamos com muitas perguntas sem respostas, tentando prever o futuro sob uma mescla de encanto infantil com preocupações adultas”.

Alguns destes dilemas poderão ser revolvidos a partir da evolução da própria tecnologia. Outros, atenuados mediante um maior letramento digital e amadurecimento das pessoas e organizações quanto ao uso mais responsável da inteligência artificial. Haverá, contudo, a necessidade de buscar uma maior convergência de princípios que promovam o bem comum e questões coletivas em geral. Entre outras questões, serão necessários incentivos para induzir comportamento responsável por organizações e indivíduos. São questões de grande complexidade, mas que precisam ser enfrentadas.

________________
(As opiniões expressas nos artigos publicados no Jornal da USP são de inteira responsabilidade de seus autores e não refletem opiniões do veículo nem posições institucionais da Universidade de São Paulo. Acesse aqui nossos parâmetros editoriais para artigos de opinião.)


Política de uso 
A reprodução de matérias e fotografias é livre mediante a citação do Jornal da USP e do autor. No caso dos arquivos de áudio, deverão constar dos créditos a Rádio USP e, em sendo explicitados, os autores. Para uso de arquivos de vídeo, esses créditos deverão mencionar a TV USP e, caso estejam explicitados, os autores. Fotos devem ser creditadas como USP Imagens e o nome do fotógrafo.