A universidade e os novos muros da inteligência artificial

Por Felipe Hoenen, pesquisador de Audiovisual e Novas Tecnologias, e Ferdinando Martins, professor da Escola de Comunicações e Artes da USP

 19/02/2024 - Publicado há 9 meses
Felipe Hoenen – Foto: Currículo Lattes
Ferdinando Martins – Foto: Currículo Lattes
É inegável que o tema Inteligência Artificial se tornou central no debate acadêmico. Uma busca rápida no site do Jornal da USP traz centenas de resultados de publicações do último ano. Somos, dessa forma, induzidos a pensar que as universidades de ponta, categoria na qual a USP se inclui, mantêm o protagonismo e a vanguarda na pesquisa também nessa área. Os dados, porém, não são assim tão promissores. Ao contrário, há evidências que a academia perde espaço na pesquisa sobre IA para as big techs e o mundo corporativo.

Essa questão ganha relevância à luz da trajetória de figuras influentes como Geoffrey Hinton, que transitou da academia para uma carreira próspera no setor privado. Em março de 2021, a revista Wired trouxe uma reportagem mostrando como Hinton, proeminente pesquisador sobre redes neurais artificiais e deep learning da Universidade de Toronto, vendeu uma startup, fruto de suas pesquisas, num leilão disputadíssimo entre gigantes como Microsoft, Baidu e outras empresas. A Google arrematou por 44 milhões de dólares a promessa incipiente do que viria a resultar nos atuais modelos de linguagem de larga escala como o ChatGPT.

Na mesma direção, o artigo “Analyzing the impact of companies on AI research based on publications”, dos pesquisadores Michael Färber e Lazaros Tampakis, do Karlsruhe Institute of Technology, Alemanha, publicado em novembro de 2023 na revista Scientometrics, apresenta uma minuciosa análise quantitativa das publicações científicas relacionadas à IA e mostram que os artigos mais citados não foram escritos exclusivamente por pesquisadores das universidades, mas sim os que são assinados em parceria com empresas privadas de tecnologias. A origem desse desequilíbrio pode estar no fato de as universidades perderem na retenção de talentos, na falta de infraestrutura e capacidade de processamento e na custódia e acesso aos dados.

As principais conclusões incluem: publicações envolvendo empresas têm um impacto de citação mais alto; as contagens de citação de artigos de pesquisa em IA com autoria corporativa na última década são significativamente mais altas do que as anteriores; e os artigos de cooperação têm impacto de citação comparável ou ligeiramente mais alto do que os artigos puramente corporativos. O texto explora explicações potenciais para essas observações, a saber: o acesso da indústria aos principais talentos acadêmicos na pesquisa sobre machine learning, recursos computacionais superiores e ativos exclusivos de dados, já que estas empresas são as mesmas que administram plataformas de redes sociais e motores de busca. O texto termina com recomendações para academia, indústria e formuladores de políticas, abordando preocupações e sugerindo ações para garantir uma abordagem equilibrada e ética na pesquisa em IA.

À medida que a IA se estabelece como uma das tecnologias mais impactantes de nosso tempo, surge uma indagação crucial: será que a academia ainda pode manter sua posição de liderança no desenvolvimento e pesquisa em IA, em comparação com as empresas privadas na sociedade contemporânea? Recursos importam. Sem financiamento, infraestrutura e talento adequados, a pesquisa acadêmica em IA corre o risco de ficar para trás.

Empresas com seus recursos financeiros, plataformas expansivas e acesso aos principais talentos estão modelando a narrativa da IA. As implicações são duplas: um comprometimento potencial na qualidade da pesquisa e uma dinâmica de poder que favorecerá ao setor corporativo. A IA tem sede de dados, e as corporações possuem vastos reservatórios deles, coletados a partir da atividade dos usuários e operações internas. As universidades, por outro lado, enfrentam obstáculos na aquisição de conjuntos de dados semelhantes. Esse desequilíbrio restringe a pesquisa acadêmica, limitando o escopo e a profundidade de suas investigações em comparação com seus pares corporativos, ricos nesta matéria-prima.

Há que se considerar ainda o silenciamento do dissenso. A abertura e a crítica são pilares do discurso acadêmico, mas a pesquisa privada pode ser envolta em sigilo. À medida que as corporações controlam mais pesquisas em IA, surgem preocupações sobre um efeito inibidor na análise crítica e no debate. Sem o holofote acadêmico, iluminando possíveis armadilhas e dilemas éticos, o desenvolvimento irrestrito da IA pode apresentar riscos imprevistos – ou mesmo calculados a partir de um raciocínio deletério ao bem comum.

Movida exclusivamente pelo lucro, a pesquisa corporativa em IA costuma priorizar aplicações imediatas em detrimento da compreensão fundamental. Isso leva a avanços em áreas específicas, como algoritmos de marketing ou reconhecimento facial, mas negligencia questões teóricas mais amplas sobre a natureza da inteligência e suas implicações éticas. As universidades, com seu foco em pesquisa de longo prazo e investigação crítica, podem equilibrar essa abordagem míope e garantir uma compreensão mais holística da IA.

No entanto, enquanto as corporações podem acumular recursos, a academia tem sua própria arma: plataformas de código aberto. Ao compartilhar pesquisas e códigos abertamente, as universidades incentivam a colaboração global e democratizam o acesso ao conhecimento. Isso fomenta um ecossistema de pesquisa diversificado e vibrante, desafiando os monopólios corporativos e garantindo que os benefícios da IA não sejam limitados a poucos seletos.

Se a universidade é o ambiente responsável pelo desenvolvimento tecnológico que nos levou a este momento, não está tão claro se será ainda capaz de permanecer no controle. É curioso que o mesmo Hinton que representa este deslocamento da academia para o setor privado hoje se declare tremendamente preocupado com a possibilidade de uma superinteligência agressiva, como fica evidente em entrevista para a revista New Yorker, em novembro de 2023. Talvez o maior risco não esteja no potencial das máquinas em si, mas na maneira como elas são controladas, e por quem.

________________
(As opiniões expressas nos artigos publicados no Jornal da USP são de inteira responsabilidade de seus autores e não refletem opiniões do veículo nem posições institucionais da Universidade de São Paulo. Acesse aqui nossos parâmetros editoriais para artigos de opinião.)


Política de uso 
A reprodução de matérias e fotografias é livre mediante a citação do Jornal da USP e do autor. No caso dos arquivos de áudio, deverão constar dos créditos a Rádio USP e, em sendo explicitados, os autores. Para uso de arquivos de vídeo, esses créditos deverão mencionar a TV USP e, caso estejam explicitados, os autores. Fotos devem ser creditadas como USP Imagens e o nome do fotógrafo.