O que é melhor? Uma lei ruim ou nenhuma lei sobre inteligência artificial?

Por Anderson Röhe, pesquisador da Cátedra Oscar Sala do Instituto de Estudos Avançados USP

 12/08/2024 - Publicado há 3 meses
Anderson Röhe Fontão Batista – Foto: Arquivo pessoal
Muito se questiona sobre o que propomos para o Brasil em termos de inteligência artificial. E as respostas deverão vir a partir dessa reflexão, especialmente em termos de governança e regulação. Porém, antes de adentrar nesse debate em específico, o primeiro passo é pensarmos em inteligências artificiais (sim, no plural, desmitificando que exista apenas uma), já que há um porquê para isso.

Hoje se pensa em inteligência artificial – IA mais como um campo do conhecimento do que meramente uma tecnologia. A abordagem, portanto, deveria ser interdisciplinar, levando em consideração a interação entre diferentes disciplinas ou áreas do saber e seus diferentes níveis de complexidade encontrados entre as Ciências Política, do Direito, da Filosofia, Antropologia, Psicologia, da Computação (visão computacional), do Processamento de Linguagem Natural, entre outras.

Dado esse primeiro passo conceitual/contextual, passemos para a fase estratégica seguinte de qual ponto partir. Isto é, se adotamos um modelo autóctone que priorize as necessidades nacionais ou se replicamos outros modelos regulatórios estrangeiros. E, dentre estes, se ainda nos espelhamos na proposta europeia (AI Act) assim como fizemos, por exemplo, com a Lei Geral de Proteção de Dados Pessoais – LGPD.

A princípio, não descartamos a fonte de inspiração europeia, até por ser pioneira em termos de boas práticas (benchmarking) em governança e regulação de novas tecnologias, por força do chamado Efeito Bruxelas. Mas embora o AI Act pretenda ser uma lei que abrace todas as inteligências artificiais, aquele também encontra seus limites. Por isso estamos inclinados a um modelo autóctone em IA que leve em consideração as especificidades e realidade brasileiras, sobretudo em termos de cultura, sociedade e linguagem (aqui leia-se treinamento de modelos de linguagem – LLMs – em português).

E por que o treinamento de modelos de linguagem no idioma pátrio é importante?

Porque embora modelos comerciais como Gemini e ChatGPT “falem” a nossa língua, muitas vezes isso ocorre através de traduções, como salienta Diogo Cortiz, um experto na área, o que “pode resultar em uma imposição cultural e subjetiva das línguas dominantes, como o inglês, gerando respostas incorretas e enviesadas”. Uma vez que “a criação de modelos avançados de linguagem em português é colocada como ponto-chave para a soberania digital em IA”. Visto que investimentos em infraestrutura são fundamentais, frisa Virgílio Almeida, titular da Cátedra Oscar Sala do Instituto de Estudos Avançados da USP. Explica-se: como os brasileiros produzem dados, cobiçados por big techs estrangeiras, capazes de treinar grandes modelos de inteligência artificial, é preciso ter alternativas, pois aí sim haveria uma IA genuinamente “soberana/brasileira” em busca de um protagonismo no Sul Global.

Portanto, ao traçarmos um panorama do cenário nacional, hoje os argumentos dos especialistas acerca de ter um modelo regulatório em inteligência artificial, próprio do Brasil, oscilam entre o que seria um projeto a) desnecessário; b) afobado e temerário; e, por fim, c) ambicioso demais. Adiantamos, no entanto, que a maioria concorda que algo deva ser feito, mas discorda de quando e como isso irá exatamente acontecer:

a) quanto a ser um projeto desnecessário, argumenta-se que os arcabouços regulatórios vigentes, como o Código de Defesa do Consumidor, o Código Eleitoral ou mesmo a Lei Geral de Proteção de Dados – LGPD já dariam conta de uma suposta lacuna legislativa em IA;

b) quanto a ser um projeto afobado e temerário, argumenta-se que a regulação é necessária, mas deve vir com cautela. Posicionamento que relativiza o argumento da desnecessidade de regulação em IA, mas não por completo. Vem sob a justificativa de que com a popularização e democratização de acesso à IA, sobretudo com o boom da IA generativa, surgiram situações novas que, por sua vez, geraram riscos novos ainda não previstos nem nas leis atuais, nem em alguns dos projetos de lei em tramitação no Brasil. Tal argumento leva, então, em conta a velocidade e o volume de escala como avança o desenvolvimento da tecnologia. Logo, urgente é o debate, mas não necessariamente a sua conclusão.

Assim, na pressa de regular algo, não haveria consenso acerca de sua definição (primeiro, quanto ao que é inteligência e, segundo, quanto ao que é inteligência artificial) e nem se saberia bem do que está por vir (sobretudo na ausência de avaliação de impacto e gerenciamento dos riscos). Principalmente no atual momento em que vários projetos de lei foram reunidos no PL 2338/2023, mas ainda estão sendo debatidos.

Uma vez que a multiplicidade e/ou sobreposição de propostas regulatórias no Brasil colocaria em risco a própria integridade/coerência de um plano estratégico brasileiro em IA, seja a EBIA – Estratégia Brasileira de Inteligência Artificial, divulgada em 2021, seja o recém lançado PBIA – Plano Brasileiro de Inteligência Artificial 2024-2028, mais factível e robusto que o anterior por apresentar metas, marcos temporais definidos, recursos orçamentários e a origem das fontes de investimentos para tal. Ao contrário do primeiro que não parecia exatamente um plano, e sim uma carta de intenções, já que um plano serve para “prever, calcular, criar agenda, fomentar investimentos”.

O ideal seria que a futura lei sobre IA “conversasse” antes com seu planejamento estratégico, qualquer que seja o plano, ainda que a simples apresentação de uma proposta (draft), como parece ser o PBIA; isto é, melhor que houvesse sinergia entre planejamento estratégico e a posterior regulação. Não é à toa que entre as cinco áreas estruturantes do plano está o Apoio ao Processo Regulatório e de Governança da IA (Eixo 5).

Também se ventila que o relativo atraso quanto à regulação brasileira em IA dar-se-ia inclusive em razão do caloroso debate quanto à existência de um modelo regulatório único/geral ou de caráter setorial. Ou mesmo em relação à disputa política de qual seria a agência regulatória adequada para tal fim (uma das já existentes, como a Agência Nacional de Telecomunicações – Anatel; a Autoridade Nacional de Proteção de Dados – ANPD; o Conselho Administrativo de Defesa Econômica – Cade, ou uma autoridade autônoma, ainda a ser instituída). Sendo que a ANPD vem despontando mais como uma agência coordenadora do que propriamente reguladora das demais, e o Comitê Gestor da Internet no Brasil – CGI.br como órgão observador que “monitora e avalia o progresso e impacto das iniciativas de IA no Brasil, servindo como um repositório de informações, análises e indicadores relacionados ao desenvolvimento e adoção de aplicações de IA”;

c) quanto a ser um projeto ambicioso demais: o melhor a fazer seria replicarmos um modelo estrangeiro, uma vez que tão cedo o debate não estará amadurecido no Brasil pois não teríamos tradição nem força institucional o suficiente, por se tratar de um país do Sul Global, ainda em desenvolvimento e vulnerável às novas formas de poder, dominação e controle – a exemplo do colonialismo de dados -, dada a hegemonia de superpotências como EUA, China e União Europeia no campo das tecnologias emergentes. Visto que, em uma breve retrospectiva histórica, o Brasil ainda é um país mais consumidor do que produtor de inovações tecnológicas (o que, em contrapartida, pode ser contraditado a partir de nosso benchmarking com o Marco Civil da Internet – MCI, por exemplo).

Assim como, na prática, tampouco conseguiríamos competir ou concorrer com o domínio monopolístico de EUA e China. Segundo Kai-Fu Lee, as únicas potências com reais condições e insumos necessários para disputar essa corrida tecnológica pela regulação e, consequentemente, alcançar a hegemonia global da IA (argumento de seu livro AI Superpowers: China, Silicon Valley, and the New World Order, publicado em 2018).

Portanto, dadas essas análises, o Brasil se encontra diante do impasse entre termos uma lei ruim ou nenhuma lei sobre inteligência artificial, fazendo com que o país corra o risco de ficar para trás e/ou de se subjugar em termos de cibersegurança, interoperabilidade e soberania digital. Trata-se da controversa questão da autonomia que, por sua vez, é altamente criticada pela ala pró-mercado, que a considera ufanista, impeditiva da inovação e do desenvolvimento tecnológico do Brasil. Algo contraditório, justamente esta que é:

a capacidade de um país controlar e proteger seus dados, infraestruturas e sistemas de informação […] implicando a capacidade de desenvolver tecnologia nacionais, protagonizar e planejar o futuro […] estabelecer políticas públicas que promovam a inovação, o uso responsável e ético da IA.

Então, o que resta fazer? Diante dessa “quebra de braço”, o melhor não é apressar a regulação no Brasil, e sim aprofundar o debate e incluir todos os grupos de interesses envolvidos – governo, setor privado, think tanks, sociedade civil e academia – em uma abordagem multistakeholder; contando sobretudo com a participação efetiva da sociedade civil no processo de tomada de decisão se queremos ou não trilhar um caminho próprio, ao invés de simplesmente replicar automaticamente propostas de regulação estrangeiras que sequer foram implementadas ou ainda testadas em seus locais de origem.

________________
(As opiniões expressas nos artigos publicados no Jornal da USP são de inteira responsabilidade de seus autores e não refletem opiniões do veículo nem posições institucionais da Universidade de São Paulo. Acesse aqui nossos parâmetros editoriais para artigos de opinião.)


Política de uso 
A reprodução de matérias e fotografias é livre mediante a citação do Jornal da USP e do autor. No caso dos arquivos de áudio, deverão constar dos créditos a Rádio USP e, em sendo explicitados, os autores. Para uso de arquivos de vídeo, esses créditos deverão mencionar a TV USP e, caso estejam explicitados, os autores. Fotos devem ser creditadas como USP Imagens e o nome do fotógrafo.