Desde o lançamento do ChatGPT pela empresa Open AI, em novembro de 2022, os chatbots de Inteligência Artificial Generativa (IAgen) elevaram diferentes tipos e aplicações de IA a um patamar de ampla notoriedade internacional. Nesse contexto, é bastante simbólico que a edição do Prêmio Nobel 2024 reconheça tanto os cientistas diretamente responsáveis pelo desenvolvimento da IA (os físicos), quanto aqueles que estão na vanguarda do seu uso inovador (os químicos). Em linhas gerais, pode-se afirmar que o Prêmio Nobel 2024 consagrou a pesquisa pura e aplicada da IA legitimando-a como um campo de conhecimento científico de fronteira, com potencial para trazer benefícios significativos à humanidade.
Quem define o conhecimento de fronteira na geopolítica da ciência?
Ao analisarmos os cientistas premiados com os Prêmios Nobel de Física e Química de 2024, emergem algumas relações marcantes entre eles. Além do indiscutível impacto de suas descobertas no campo da IA e da biotecnologia, há um claro padrão em termos de localização geográfica e formação acadêmica. Tanto os físicos John J. Hopfield e Geoffrey E. Hinton quanto os químicos David Baker, Demis Hassabis e John M. Jumper nasceram nos Estados Unidos ou no Reino Unido e possuem doutorados em universidades de prestígio desses países. Isso reforça a hegemonia das instituições acadêmicas anglo-americanas como centros produtores de conhecimento científico, criando um ciclo no qual o acesso ao reconhecimento global parece mais facilmente atingível por cientistas dessas regiões.
Essa concentração geográfica e institucional nos faz refletir sobre a aparente neutralidade da ciência. Embora a ciência seja frequentemente descrita como imparcial e objetiva, as premiações mais importantes revelam que certos grupos e regiões são desproporcionalmente privilegiados. A ausência de cientistas de outras partes do mundo e a predominância de homens brancos indicam que questões como raça, gênero e geopolítica ainda moldam o cenário científico global. Isso não é apenas um reflexo da história de exclusão, mas também um lembrete de que o acesso ao reconhecimento internacional e à legitimidade científica não ocorre de maneira equitativa.
Além disso, a edição de 2024 destaca outra questão latente: o gênero dos premiados. Todos os laureados, tanto na Física quanto na Química, são homens, o que continua a evidenciar a desigualdade de gênero no reconhecimento de conquistas científicas. Essa disparidade não implica que não existam mulheres ou minorias sub-representadas fazendo contribuições de peso nas mesmas áreas, mas sim que, para além da qualidade das pesquisas, fatores históricos e culturais ainda influenciam a forma como o mérito é distribuído. Nesse sentido, o Prêmio Nobel de 2024, apesar de reconhecer inovações científicas transformadoras, também nos lembra dos desafios persistentes em tornar a ciência verdadeiramente inclusiva.
Ciência e poder: a influência das big techs no Prêmio Nobel de 2024
Além de suas destacadas carreiras acadêmicas, vários desses laureados com o Prêmio Nobel de 2024 têm fortes vínculos com empresas de tecnologia, especialmente com a Google e suas subsidiárias. Geoffrey E. Hinton, um dos pioneiros da IA, desempenhou papéis cruciais tanto no meio acadêmico quanto na Google, moldando os avanços da IA que hoje impactam diversos setores. Da mesma forma, Demis Hassabis, cofundador e CEO da Google DeepMind, e John M. Jumper, pesquisador sênior na mesma instituição, estão profundamente envolvidos no desenvolvimento de soluções inovadoras que integram IA e bioquímica. Essa interseção entre a ciência acadêmica e o setor privado levanta questões sobre as motivações e interesses que guiam a pesquisa de ponta, bem como o papel dessas empresas no direcionamento do futuro da ciência.
É fundamental refletir sobre a questão ética envolvida na seleção dos laureados, considerando o crescente papel das big techs na definição do que é considerado “conhecimento de fronteira”. A presença significativa de cientistas vinculados à Google e outras grandes corporações de tecnologia sugere uma possível confluência entre os interesses comerciais e o prestígio acadêmico. Nesse sentido, seria importante que a organização responsável pela seleção do Prêmio Nobel levasse em consideração o impacto dessas relações no campo científico, especialmente quando as fronteiras entre o conhecimento público e privado se tornam cada vez mais tênues. Afinal, a ciência, embora universal em seus princípios, não está imune a influências de poder econômico e geopolítico.
Essa concentração de reconhecimento em cientistas que não apenas pertencem às instituições acadêmicas mais prestigiadas, mas que também ocupam cargos de liderança em gigantes da tecnologia, suscita uma discussão sobre a neutralidade da ciência. O Prêmio Nobel de 2024, ao distinguir exclusivamente homens de nacionalidades americana e britânica, reflete mais uma vez a hegemonia de determinadas regiões e instituições na produção de conhecimento. Diante disso, surge a necessidade de uma análise crítica sobre as escolhas feitas para o Nobel, que deveria promover uma maior diversidade geográfica e de gênero, e considerar o impacto ético das relações entre ciência e grandes corporações.
Entre a inovação e o arrependimento
Os laureados com o Prêmio Nobel de 2024 oferecem reflexões variadas sobre os impactos éticos, riscos e oportunidades da IA, revelando um leque de perspectivas sobre o uso e desenvolvimento dessa tecnologia. John J. Hopfield, por exemplo, manteve uma postura relativamente neutra ao longo de sua carreira, focando em modelos teóricos de redes neurais e no uso da física para resolver problemas computacionais. Embora suas contribuições tenham sido fundamentais para o desenvolvimento da IA moderna, ele não costuma abordar diretamente as questões éticas ou os riscos envolvidos na aplicação dessa tecnologia. Essa postura reflete um foco mais técnico e acadêmico, distante das implicações sociais e éticas que hoje acompanham a IA.
Por outro lado, Geoffrey E. Hinton adotou uma postura bastante diferente. Em 2023, Hinton deixou seu cargo na Google, expressando preocupações profundas com o ritmo acelerado do desenvolvimento da IA e o potencial da tecnologia superar a inteligência humana. Ele chegou a lamentar algumas de suas próprias contribuições ao campo, reconhecendo que, com o avanço da IA, os riscos tornaram-se mais evidentes. Hinton alertou para as consequências imprevisíveis que a IA poderia gerar, incluindo o possível descontrole sobre sistemas autônomos, algo que demanda uma regulamentação cuidadosa e uma supervisão ética mais rígida. Esse contraste com a neutralidade de Hopfield nos lembra que, mesmo dentro de um mesmo campo, as visões sobre o impacto da IA podem variar amplamente.
David Baker, assim como John J. Hopfield, adota uma postura mais neutra em relação aos impactos éticos e aos riscos associados à inteligência artificial. Seu foco está nas aplicações práticas da IA no campo da biotecnologia, particularmente no design de proteínas para o desenvolvimento de novos medicamentos e vacinas. Além disso, enxerga a IA como uma ferramenta poderosa para acelerar avanços científicos, mas não se posiciona publicamente sobre as implicações éticas mais amplas que acompanham essa tecnologia. Esse foco prático e científico, sem discussões éticas mais profundas, aproxima sua visão da de Hopfield, que também concentra seus esforços na ciência em si, sem abordar os riscos sociais ou as questões éticas associadas.
Já Demis Hassabis, CEO da Google DeepMind, adota uma posição pública em que equilibra os benefícios extraordinários da IA com a necessidade de uma regulamentação responsável. Embora veja a IA como uma ferramenta capaz de resolver problemas científicos e sociais complexos, como demonstrado pelo sucesso do seu modelo de IA AlphaFold2, Hassabis também enfatiza a importância de mitigar os riscos à privacidade e ao mercado de trabalho. John M. Jumper, colaborador de Hassabis, compartilha da visão positiva sobre o impacto transformador da IA, especialmente em bioquímica, mas evita discussões públicas sobre os desafios éticos da tecnologia. Esse conjunto de reflexões mostra que, embora os avanços na IA tragam oportunidades sem precedentes, os riscos e a responsabilidade ética permanecem uma questão central no debate sobre o futuro da ciência e da sociedade.
Prometeu e a IA: a luz do conhecimento e o peso da responsabilidade
A analogia com o mito de Prometeu, especialmente como retratado por Ésquilo, oferece uma maneira instigante de entender os diferentes posicionamentos dos laureados do Prêmio Nobel de 2024 em relação à IA. John J. Hopfield, como o Prometeu Teórico, representa aquele que traz a luz do conhecimento científico ao desenvolver os fundamentos das redes neurais. Assim como Prometeu ofereceu o fogo aos seres humanos sem temer imediatamente as consequências, Hopfield focou no avanço da ciência, sem dar atenção aos riscos éticos que poderiam emergir posteriormente. Ele é o Prometeu antes da punição, confiante de que a ciência pode iluminar a humanidade, sem prever o alcance das possíveis implicações negativas.
Geoffrey E. Hinton, por outro lado, encarna o Prometeu Libertado, refletindo sobre o impacto de suas criações com uma postura de arrependimento e cautela. Ao expressar publicamente suas preocupações com a IA e deixar a Google, Hinton se posiciona como o Prometeu que, após ser punido, percebe os riscos da dádiva que ofereceu à humanidade. Ele adverte sobre a possibilidade de a IA ultrapassar a inteligência humana e escapar ao controle, assim como Prometeu sabia que o fogo poderia ter consequências imprevisíveis. Hinton, ao contrário de Hopfield, vê o desenvolvimento da IA como uma espada de dois gumes, carregando uma ambivalência moral sobre o futuro dessa tecnologia.
No campo da Química, Demis Hassabis pode ser visto como um Prometeu Cauteloso. Assim como Prometeu advertiu Zeus sobre os perigos de suas ações, Hassabis adverte sobre os riscos da IA destacando a importância de regulamentação e supervisão ética. Embora acredite no potencial positivo da IA, ele é um defensor da cautela, consciente de que essa “chama tecnológica” pode, se não gerida de forma responsável, levar a consequências negativas. Enquanto isso, David Baker e John M. Jumper se alinham mais ao Prometeu Criador e Pragmático, respectivamente. Eles utilizam a IA para solucionar desafios científicos monumentais, confiando no poder transformador da tecnologia para o bem da humanidade, sem expressar grandes preocupações éticas.
Chamado à ação: o papel transformador da ciência brasileira na era da IA
O recente anúncio da Proposta de Plano Brasileiro de Inteligência Artificial 2024-2028: IA para o Bem de Todos marca um momento crucial para a ciência e a tecnologia no Brasil. Com investimentos de 23 bilhões de reais ao longo de cinco anos, o plano visa transformar a IA em um motor de desenvolvimento socioeconômico para o País. No entanto, para que esse plano atinja todo o seu potencial, será crucial superar desafios estruturais como a desigualdade de acesso à educação, a infraestrutura tecnológica limitada em certas regiões e a falta de regulamentação robusta que garanta o uso ético e responsável da IA. Apenas com uma abordagem inclusiva e alinhada aos valores sociais, o Brasil poderá realmente colher os benefícios dessa tecnologia transformadora.
Nesse contexto, a comunidade científica das áreas de Física e Química no Brasil está diante de uma oportunidade única. Inspirados pelas recentes premiações do Nobel em 2024, nossos cientistas podem contribuir ativamente para o avanço ético e responsável da IA, não apenas como usuários, mas como agentes de inovação, colaborando com suas pesquisas e conhecimentos para moldar o futuro da IA no Brasil.
As áreas de Física e Química brasileiras têm muito a ganhar e a oferecer dentro desse plano. Com sua longa tradição de excelência acadêmica e inovação, nossos pesquisadores podem usufruir dos recursos disponibilizados para expandir suas pesquisas e impulsionar o uso da IA em projetos que promovam tanto o progresso científico quanto benefícios sociais concretos. A IA tem o potencial de transformar a forma como conduzimos pesquisas, desde a modelagem de processos químicos complexos até a simulação de fenômenos físicos ainda não tão bem compreendidos. No entanto, para que isso ocorra de maneira ética, é essencial que os pesquisadores brasileiros se envolvam de forma ativa na implementação dessas tecnologias, garantindo que o desenvolvimento da IA esteja alinhado com os princípios de responsabilidade e impacto social positivo, sem se deixarem seduzir por uma promessa prometéica meramente tecnocrática desalinhada da ética no exercício da função social do cientista.
Nesse sentido, o Projeto IA Responsável, coordenado pela Cátedra Oscar Sala do Instituto de Estudos Avançados da USP, oferece um caminho valioso para a comunidade científica brasileira. Ao explorar questões técnicas, sociais, legais e institucionais relativas à IA, o projeto busca criar um diálogo interdisciplinar que possibilite a construção de uma governança digital responsável. A Física e a Química podem desempenhar um papel fundamental nesse processo, contribuindo para que as aplicações da IA avancem de forma a trazer benefícios à saúde, educação, trabalho e outros setores essenciais da sociedade. A comunidade acadêmica brasileira da Física e da Química é chamada, agora, a participar de forma ativa desse movimento, promovendo uma IA que, além de eficiente, seja inclusiva, ética e verdadeiramente transformadora. Ao aceitarmos esse desafio, podemos não apenas moldar o futuro da ciência no Brasil, mas também garantir que a IA se torne uma ferramenta de justiça social e progresso para todos, e não apenas para alguns poucos privilegiados.
________________
(As opiniões expressas nos artigos publicados no Jornal da USP são de inteira responsabilidade de seus autores e não refletem opiniões do veículo nem posições institucionais da Universidade de São Paulo. Acesse aqui nossos parâmetros editoriais para artigos de opinião.)