A inteligência artificial e os desafios para as próximas gerações

A criação de um ambiente de pesquisa permanentemente fértil e atraente continua sendo um enorme desafio da IA, argumenta Glauco Arbix

 12/09/2023 - Publicado há 8 meses
Por

Logo da Rádio USP

Todos nós sabemos que as tecnologias de inteligência artificial estão evoluindo muito rapidamente e a história dos seus criadores e desenvolvedores continua deixando lições para as novas gerações em todo o mundo. Uma série de entrevistas e depoimentos dos criadores da tecnologia chamada Transformer, que é aquele “T” do GPT, ajuda a iluminar pelo menos uma parte do entusiasmo e também dos obstáculos que acabam se colocando à frente da pesquisa sobre inteligência artificial. No final de 2017, um artigo científico foi publicado com o título Atention is all you need  (Atenção é tudo que você precisa). O que começou como uma conversa corriqueira, despretensiosa, deu origem a uma colaboração  intensa dentro da Google, que produzia uma nova arquitetura para linguagem de processamento, conhecido simplesmente como Transformer, ou Transformador. Oito pesquisadores da Google assinaram um pequeno artigo com esse título, e o artigo deu um passo inteiramente novo na trajetória da inteligência artificial e permitiu a evolução daquilo que se chama IA generativa, que ficou conhecida mundialmente pelo desempenho do ChatGPT.

Hoje essa arquitetura Transformer está na base da maioria das aplicações de ponta da inteligência artificial e alimenta todos os grandes modelos e linguagem, como as versões mais recentes do ChatGPT, do Bard, do Cloud, do Code Llama, do Midjourney, do Dall-e  e vários outros. Como grandes avanços científicos, evidentemente, o Transformer foi construído ao longo de décadas, se apoiando em trabalho científico e no conhecimento gerado anteriormente, seja nos laboratórios da Google, seja nos laboratórios da DeepMind  (empresa no Reino Unido), das formulações do Facebook, das universidades no Canadá, na Europa e nos Estados Unidos.

O que chamou atenção, além desse conhecimento, é que a composição dos criadores do Transformer ajuda a entender como é que a gente chegou nesse ponto de evolução. Seja do ponto de vista educacional, também do ponto de vista profissional e geográfico, o que chamou atenção de todo mundo foi a diversidade que tornou a equipe única, essencial para que a inovação acontecesse de modo colaborativo. O que mantinha a coesão do grupo era o fascínio por entender melhor a inteligência artificial e fazê-la avançar no trato da linguagem das imagens, sons, esses sistemas de reconhecimento. O artigo deles foi citado mais de 90 mil vezes desde o final de 2017.

O resultado: todos os oito autores já deixaram a Google e fundaram suas próprias startups. É aquilo que se chama o “dilema do inovador”, um termo cunhado na Universidade de Harvard para caracterizar como muitas vezes corporações gigantes, com muitos recursos, líderes e mercado podem ser superadas por pequenos emergentes grupos, por ágeis startups. Muitas dessas grandes corporações conseguem formar ou contratar alguns dos mais competentes pesquisadores do mundo, mas a criação de um ambiente de pesquisa permanentemente fértil e atraente continua sendo um enorme desafio.


Observatório da Inovação
A coluna Observatório da Inovação, com o professor Glauco Arbix, vai ao ar quinzenalmente, terça-feira às 8h, na Rádio USP (São Paulo 93,7; Ribeirão Preto 107,9) e também no Youtube, com produção da Rádio USP, Jornal da USP e TV USP.

.


Política de uso 
A reprodução de matérias e fotografias é livre mediante a citação do Jornal da USP e do autor. No caso dos arquivos de áudio, deverão constar dos créditos a Rádio USP e, em sendo explicitados, os autores. Para uso de arquivos de vídeo, esses créditos deverão mencionar a TV USP e, caso estejam explicitados, os autores. Fotos devem ser creditadas como USP Imagens e o nome do fotógrafo.