Três debates necessários para o futuro da IA no Brasil

Por Anderson Röhe, pesquisador da Cátedra Oscar Sala do Instituto de Estudos Avançados da USP

 Publicado: 01/10/2024 às 19:04
Anderson Röhe – Foto: Arquivo pessoal
Hoje é de extrema importância mapear os debates sobre inteligência artificial para saber o que realmente importa em termos de governança e regulação. Pois há muita especulação e sensacionalismo em discussão. Na literatura especializada há desde os entusiastas aos catastróficos que dão diferentes abordagens para as questões da IA. Discordâncias que, no entanto, mais atrapalham do que favorecem o envolvimento das partes interessadas, a tomada final de decisão e o processo decisório como um todo, bem como dificultam a participação dos grupos sociais mais suscetíveis e o próprio adensamento da discussão a respeito. Sem falar nos lobbies políticos de obstrução de pauta. O objetivo aqui é, então, destacar os debates principais dos meramente conjecturais, uma vez que são muitos, porém nem sempre relevantes e/ou factíveis para o contexto brasileiro.

Para Diogo Cortiz, o “mercado de IA flutua entre o hype e a realidade” de promessas que ora não se cumprem ou beiram a fantasia. Daí o alerta de Dora Kaufman sobre “uma bolha prestes a estourar”, sinal de que a indústria estaria sofrendo de Fomo – fear of missing out – ou o medo de ficar para trás e perder a disputa para a concorrência. O que explica a série de expectativas que resultam em frustrações. Sobretudo diante do atual arrefecimento do hype em torno da inteligência artificial, de promessas de rápido desenvolvimento da tecnologia e de “ganho quase irrestrito de produtividade” depois do boom que a IA generativa provocou com o ChatGPT. Algo que, após dois anos, não se confirmou na proporção esperada, resultando no desestímulo dos fundos de investimentos no desenvolvimento de uma tecnologia de alto custo que não daria o retorno financeiro aguardado; e que mais tarde se agravou pelos frequentes erros, defeitos e “alucinações” da IA em dar respostas imprecisas e enviesadas.

Há, então, um quadro mais de incertezas que certezas do que está por chegar, mas não necessariamente que os investimentos em IA irão parar, e sim que tendem a perder um pouco do ritmo acelerado de até então. Segundo Cortiz, já se reconhece que “a arquitetura chamada Transformers, a base de funcionamento dos modelos de linguagens, pode estar chegando perto do seu limite”. E cabem aos estudos acadêmicos fazer um raio x desse choque de realidades, no intuito de ajudar “a entender melhor as possibilidades de uso, os desafios e o retorno real que a tecnologia pode trazer”.

Então quais os debates necessários sobre IA, sobretudo para o Brasil?

Entre tendências e visões de futuro do que está para acontecer na Inteligência Artificial, há três debates realmente importantes para o contexto brasileiro tanto presente quanto futuro: primeiro, se estamos no momento oportuno para regular a IA no Brasil; se não, qual modelo seguir, e se os perigos com a IA são, de fato, concretos e reais, potencialmente hipotéticos ou mesmo distantes da realidade nacional.

Quanto a saber se agora é o momento exato para a promulgação de uma lei brasileira de IA, ainda não há consenso, pois existe controvérsia até mesmo entre as abordagens que são dadas à matéria, indo desde os entusiastas até os completamente céticos. No nosso caso, optamos pela cautela, nos posicionando entre os menos crentes de que hoje isso possa acontecer da forma adequada e satisfatória aos interesses nacionais. Inclusive aventa-se a possibilidade de o marco legal ficar pronto só a partir de 2025, após as eleições. Essa quebra de expectativa se dá tanto pela falta de material e capacitação técnico-profissional, quanto de infraestrutura suficiente com chips, data centers e supercomputadores de ponta no País. Não por acaso esses déficits estão entre as ações estratégicas de fomento e impacto imediato do PBIA – Plano Brasileiro de Inteligência Artificial. Em outras palavras, o cabedal necessário para poder instrumentalizar uma IA brasileira que busque “trazer mais autonomia para o Brasil e reduzir as assimetrias e dependência de outros países”.

Em seguida à primeira provocação, vem o seu desdobramento lógico, isto é, se é viável ou não uma “IA brasileira” em termos, por exemplo, de infraestrutura em nuvem soberana e modelos de linguagem em português.

Nos incluímos no grupo dos entusiastas, mas que pensa ser pouco provável que o Brasil, como um País do Sul Global e ainda em desenvolvimento, tenha condições de atualmente desenvolver uma IA soberana, brasileira, a ponto de concorrer ou mesmo de competir com grandes potências do Norte Global que são as que efetivamente manejam o uso e o desenvolvimento da IA no mundo.

E damos exemplos desse despreparo, pois os gargalos existem já na questão da soberania digital: hoje os dados dos brasileiros estão armazenados em sua maioria em data centers no exterior. Para que fossem superados, deveria haver o fomento de uma cultura de proteção de dados e segurança da informação, o que não corresponde à realidade doméstica, dada a série de notícias sobre vazamentos de dados sensíveis e informações sigilosas de empresas brasileiras e estrangeiras, inclusive do próprio banco de dados do governo.

Firmar parcerias também faz parte desse planejamento estratégico, porém a própria contratação da Oracle (EUA) e Huawei (China) pela Dataprev para o armazenamento em nuvem (cloud computing) no país, ainda que “de acordo com todas as exigências governamentais de soberania tecnológica”, se não parece ser discrepante e contraditório com o discurso oficial de autonomia soberana, ao menos condiz com a teoria de que o Brasil permanece despreparado para tal, e que o ideal mesmo é agora se amparar na experiência de players reconhecidos no mercado para depois o País tentar se alavancar.

Já com relação ao modelo regulatório de IA: qual adotar?

Em O Dilema Brasileiro da Regulação de IA, Ricardo Campos ressalta que o cenário à época de promulgação da Lei Geral de Proteção de Dados no Brasil não é o mesmo de agora da inteligência artificial. Para Campos, “no caso da proteção de dados, o Brasil acertou ao se inspirar no modelo europeu já amadurecido. Mas, em relação à IA, qual direção devemos seguir? É preciso, antes de tudo, cautela”.

Logo, é preciso indagar se, no caso da IA, ainda é oportuno o alinhamento ao padrão europeu tal qual como ocorreu com a LGPD no Brasil. Sabidamente que, à época, aquele regulamento era reconhecido como o que havia de melhor em termos de benchmarking/referência global em proteção de dados, bem como inexistia a disputa acirrada de outros players tal como existe hoje com Estados Unidos da América, Reino Unido, Japão e eventualmente a China. Pois de lá para cá a concorrência não só aumentou, mas aprendeu com os erros e acertos de seu predecessor, possibilitando aos adversários apresentarem suas próprias propostas regulatórias para o setor.

Tal dilema se justifica:

Enquanto no campo da proteção de dados a Europa teve um amadurecimento legislativo de quase 50 anos, a regulação da IA tem sido um caminho percorrido às cegas. Ainda não é possível saber se o modelo adotado terá um impacto positivo ou negativo para o bloco, sobretudo no que diz respeito à inovação (Ricardo Campos).

O AI Act ou The Artificial Intelligence Act foi o primeiro grande regulamento de inteligência artificial no mundo a ser publicado. O que revela o pioneirismo e a força política bem-sucedida (soft power) daquele bloco econômico em tornar o padrão europeu um standard global. Mas nem por isso hoje deverá ser seguido à risca, uma vez que sequer foi testado e implementado por completo, pois ainda o está sendo de forma gradual, não se sabendo ao certo os efeitos de sua aplicação extraterritorial a longo prazo. Há, então, fases necessárias de transição (e de incertezas, aventadas anteriormente) que trazem inquietações de cibersegurança e soberania digital ainda desconhecidas pela própria União Europeia. Como garantir, então, que o AI Act é o melhor caminho a se espelhar?

Ricardo Campos afirma que o modelo europeu de IA é incerto, “pois o direito regulatório moderno somente se concretiza efetivamente na forma legislada após o acúmulo de experiência sobre riscos e danos”. Para tanto, cita o tráfego aéreo que “somente foi regulado depois que aviões começaram a voar”. O que põe à baila outra questão: qual melhor regulação, a ex post ou ex ante?

Como resposta, retoma-se o dilema a que Campos se referiu: se a regulação for precoce, antes mesmo do desenvolvimento da tecnologia, isso pode obstar a inovação e o avanço de seus benefícios (um argumento pró-mercado). Agora, se for tardia demais, pode ocasionar danos irreparáveis, já que dificilmente haverá como retornar ao status quo ante (argumento pró-sociedade). Impasse este, aliás, já aludido por este autor em Metadados e o Dilema de Collingridge: como compatibilizar novas tecnologias e direitos fundamentais na sociedade da informação.

A Califórnia é, então, uma concorrente à altura?

Para uns, sim, é “uma norma cujo impacto estará, pelo menos, no mesmo nível do AI Act”, segundo André Gualtieri, PhD e eticista de inteligência artificial.

Sobretudo quando da entrada em vigor da lei californiana dentro desse tabuleiro, a chamada Safe and Secure Innovation for Frontier Artificial Intelligence Models Act, a fim de esquentar ainda mais a corrida global pela regulação da IA. O que é um fator decisivo que faltava, pois lá está a “sede das empresas que lideram a pesquisa e o desenvolvimento de IA no mundo, como OpenAI, Google, Meta e Anthropic”. E, a partir da expertise técnico-acadêmica do Vale do Silício, aquelas agora podem também propor o modelo californiano como standard global a ser seguido pelos demais. A exemplo do caso europeu por força do efeito Bruxelas, mas com o diferencial de evitar a concretização de prejuízos graves (critical harms) decorrentes de perigos reais já existentes “que resultem em morte, lesão corporal grave, dano à propriedade, perda de propriedade ou grandes prejuízos financeiros”.

Ocorre que o projeto de lei da Califórnia já nasce polêmico antes mesmo de ser aprovado, tendo em vista que busca tratar também de problemas com o desenvolvimento futuro da IA, ao se “criar armas biológicas, químicas ou nucleares e realizar ciberataques em infraestruturas críticas” que podem escalar em mortes em massa.

Provavelmente pelo receio de a lei da Califórnia ficar datada e ser emendada a cada aparição de uma aplicação nova de IA, tal qual como ocorreu com a União Europeia quando do boom da IA generativa e a popularização do ChatGPT. Além de outros momentos em que foi criticada por ter de mexer várias vezes no AI Act para atualizá-lo e trazer riscos novos, antes não elencados, o que resultou em um documento complexo de 154 de páginas.

Contudo, salienta Gualtieri,

riscos desse tipo não podem, por enquanto, materializar-se por falta de desenvolvimento da própria tecnologia. Há inclusive muitos debates na literatura especializada sobre serem ou não perigos reais e sobre a conveniência de regular isso agora.

Ao que parece, há um excesso de zelo e precaução pela proposta da Califórnia ao tratar também de riscos futuros por ameaças de bioterrorismo e de ataque nuclear que mais parecem enredo de filme como O Exterminador do Futuro.

Com relação à oportunidade e conveniência de, na atualidade, legislar sobre riscos futuros e ainda inexistentes, tratamos a seguir.

Quanto aos riscos em potencial com a IA:

O último ponto do debate é a respeito dos riscos presentes e futuros com a IA. Se devemos nos preocupar só com os riscos reais, concretos ou também com aqueles potencialmente projetados para um futuro próximo habitado por uma super inteligência ou AGI, uma Inteligência Artificial Geral que, hipoteticamente, um dia irá suplantar a inteligência humana, alcançando a singularidade.

Os prognósticos de hoje são nada animadores pois, segundo o atual estágio de desenvolvimento da IA, ainda não atingimos uma AGI, nem mesmo com o alardeado o1-preview da OpenAI. Pois, enquanto para uns a IA forte é um conceito que existe apenas em teoria, não configurando por enquanto uma “realidade tangível”, para outros, segundo o Argumento da Sala Chinesa (CRA), as máquinas sequer serão capazes de alcançar o humano em termos de raciocínio, compreensão, pensamento e autoconsciência.

É inegável que assistentes virtuais como Siri e Alexa estão cada vez mais próximos em gerar laços de empatia e afetividade, “afetando nossas mentes e corações”, mas não a ponto de humanizar a relação tal qual a estabelecida entre seres humanos. Uma vez que se encaixam não em uma IA forte, e sim em uma IA fraca, restrita a tarefas específicas “como fornecer a resposta a dúvidas baseado no input do usuário”.

O que há são confusões sobre o que a IA pode atualmente fazer, ao se atribuir à IA funcionalidades muito próximas e assemelhadas, mas que todavia não se equiparam a do humano. Desta forma, procura-se dar “cara e voz” a máquinas através de sistemas conversacionais na tentativa de “antropomorfização da tecnologia”, superestimar suas habilidades e atingir maior nível de engajamento e interação humano-máquina e, a partir daí, melhorar a experiência do usuário (UX). Não necessariamente com o propósito de substituí-lo.

Outro fator é o tom sensacionalista e apocalíptico do discurso de que a IA irá superar o humano. Pois a toda hora surgem notícias sobre “novos riscos” e até de máquinas mortíferas que tomarão consciência e destruirão a humanidade. A título de ilustração, atualmente já são catalogados mais de 700 riscos com a Inteligência Artificial, segundo pesquisadores do MIT que selecionaram ao menos dez com que devemos nos preocupar mais, tais como “informações falsas ou enganosas; poluição do ecossistema de informação e perda da realidade consensual; desinformação, vigilância e influência em grande escala; ataques cibernéticos, desenvolvimento ou uso de armas e danos em massa.”

Alerta-se, todavia, para o caráter especulativo que uma lei pode vir a alcançar, diante da tentativa desse exercício prospectivo, excessivamente restritivo, pois quase toda atividade humana é suscetível ao risco: desde o acordar pela manhã e atravessar a rua, até o pegar um voo no aeroporto (em alusão ao tráfego aéreo mencionado anteriormente). Na verdade, o que varia é o nível de sua gravidade. E é por isso que existem sistemas de categorização do risco, a exemplo do procedimento baseado no risco (risk based approach) do AI Act europeu. Ou seja, listando os casos de IA de risco baixo e limitado/moderado que, por exemplo, são tolerados e podem coexistir em sociedade. Ao contrário aos de alto risco que a princípio são proibidos, mas que comportam isenções, como “os sistemas de identificação biométrica à distância pelas autoridades policiais”, ou até mesmo de banimento nos casos de risco inaceitável, como é o Sistema de Crédito Social adotado na China, citado nominalmente na página oficial do AI Act.

E o que tudo isso tem a ver com o Brasil? É preciso voltar aos três debates.

De fato, o Brasil hoje não está em condições de regular a IA. Por falta de amplo debate, amadurecimento político institucional, capacitação técnica profissional, infraestrutura e experiência regulatória em uma tecnologia que o País ainda não domina, nem tem como competir de igual para igual com as potências do Norte. Mas nem por isso precisamos ficar inertes, à espera de que outros países legislem; há de se priorizar soluções locais para problemas globais (o chamado glocal) a fim de haver alternativas com que contar.

O atual momento é de incertezas. E para tal se exige cautela. Até lá a solução ideal não seria adotar uma lei geral para todas as aplicações da IA, e sim setorizar a regulação da IA entre as várias agências reguladoras existentes nas áreas de saúde, mercado de valores mobiliários, consumidor, acesso ao crédito, entre outras. O próprio caso europeu demonstrou ser difícil lidar com as questões da IA através de um único regulamento. Daí a necessidade de conjugar o AI Act com o DSA e DMA (que tratam, respectivamente, dos serviços e dos mercados digitais).

Não por acaso também se descarta a autorregulação pelo mercado, pelo simples argumento da imparcialidade: como as big techs são as maiores detentoras de nossos dados, é como se fosse entregar à raposa a chave do galinheiro.

Na falta de regulamento próprio em IA, dentre as regulações estrangeiras a se espelhar (ou não), o modelo estadunidense pode, então, ser viável. Contudo, a possibilidade de conflitância entre leis estaduais e sobreposição das instâncias responsáveis pode ser um fator dificultador. No caso brasileiro, mais que uma agência controladora central, melhor seria um órgão articulador entre agências.

Já quanto aos possíveis perigos da IA, devemos nos preocupar mais com os riscos concretos, reais, já existentes (como violência urbana e discriminação algorítmica de gênero, raça e religião no Brasil), do que os futuros, imaginários, potencialmente hipotéticos ou mesmo distantes da realidade nacional. Pois aí incorremos no exercício de futurologia. O que pode resultar em uma aposta bem-sucedida ou não a depender do tempo. E é nesse ponto que a União Europeia, antes fonte de inspiração para a regulação digital, agora vem sendo duramente criticada: a de se apoiar em um modelo ex ante que cria “hipóteses de risco da tecnologia que podem ser reais ou não”, mas cujo impacto é devastador para pequenas e médias empresas, já que se traduz na perda de investimentos e competitividade.

É o que alerta Ronaldo Lemos para o que seria a tentativa de “cópia” do modelo europeu no Brasil, ao destacar em seu artigo o argumento de que a “Europa tem obsessão por tratar problemas antes de acontecerem”. E que curiosamente parte dos próprios europeus depois do bombástico Relatório Draghi, que sugere mudança de rumos para a UE; pois, na prática, nem os países europeus deveriam copiar as leis europeias, o que “cai como um petardo para os adeptos do chamado ‘efeito Bruxelas’, expressão que denota o desejo irresistível de copiar as leis europeias em outros lugares do mundo“.

Ademais, um dos próprios autores da lei europeia diz que Brasil não deve copiá-la em razão exatamente dessas diferentes abordagens, realidades distintas e do contexto brasileiro de desigualdades (social, econômica, política, cultural, de linguagem) “que exige regulamentação própria do uso da inteligência artificial”.

Ao final, são dadas as cartas que mais complicam do que solucionam a questão da IA no Brasil.

________________
(As opiniões expressas nos artigos publicados no Jornal da USP são de inteira responsabilidade de seus autores e não refletem opiniões do veículo nem posições institucionais da Universidade de São Paulo. Acesse aqui nossos parâmetros editoriais para artigos de opinião.)


Política de uso 
A reprodução de matérias e fotografias é livre mediante a citação do Jornal da USP e do autor. No caso dos arquivos de áudio, deverão constar dos créditos a Rádio USP e, em sendo explicitados, os autores. Para uso de arquivos de vídeo, esses créditos deverão mencionar a TV USP e, caso estejam explicitados, os autores. Fotos devem ser creditadas como USP Imagens e o nome do fotógrafo.