Com DeepSeek, chineses avançam no tabuleiro global das IAs

Startup chinesa lança modelo que rivaliza com ChatGPT da americana OpenAI, amplia disputa e pressiona mercado internacional. Especialistas da USP analisam o impacto e futuros impedimentos ao avanço tecnológico asiático

 Publicado: 04/02/2025 às 14:24

Texto: Denis Pacheco

Arte: Simone Gomes

Assim como no xadrez, usado nas últimas décadas como referência para medir o avanço das inteligências artificiais, novas peças foram movimentadas no tabuleiro da disputa global entre IAs. No final de janeiro, a startup chinesa DeepSeek lançou um modelo que desafia diretamente a OpenAI e outras gigantes do setor, inaugurando uma nova fase da disputa tecnológica global. O impacto foi imediato: na semana da notícia, ações das principais empresas americanas de tecnologia despencaram em Wall Street.

O DeepSeek se destaca não apenas pelo desempenho competitivo, mas pela sua eficiência em termos de custo e consumo de recursos. De acordo com o professor Fabio Cozman, diretor do Centro de Inteligência Artificial da USP, trata-se de um feito de engenharia, pois a startup chinesa conseguiu construir um sistema comparável aos melhores disponíveis no mercado, mas utilizando muito menos recursos computacionais.

“Pelo material divulgado pela equipe que desenvolveu o DeepSeek, houve uma redução no número de etapas usadas na construção do chamado ‘modelo de linguagem’, [ou seja] foi possível construir o DeepSeek sem os equipamentos mais modernos, o que é interessante pois sugere que países com menores recursos para investir em grandes instalações computacionais podem também competir desde que tenham foco e boas ideias”, afirma o professor.

A redução possibilitou que a empresa cortasse custos drasticamente sem comprometer a qualidade da plataforma. Supõe-se que o desenvolvimento do DeepSeek custou por volta de US$ 6 milhões, enquanto mais de US$ 100 milhões foram investidos no GPT-4, modelo da OpenAI, conforme sugeriu o CEO Sam Altman em evento realizado em 2023.

“O DeepSeek foi construído não só a partir de textos coletados pela equipe de desenvolvimento, mas também a partir de textos gerados por outros modelos de língua de qualidade, o que parece ter acelerado o processo”, explica Cozman. Além disso, o professor esclarece que a startup enfatizou a etapa de aprendizado por reforço, uma técnica que aproveita interações preexistentes para otimizar a eficiência do modelo.

Apesar do avanço tecnológico, o modelo asiático tem levantado questionamentos sobre transparência e controle de informação. Outro aspecto que precisa ser considerado é que, apesar da surpreendente redução de custos, ela não se reflete em todas as áreas: “É importante colocar em perspectiva o sistema usado para a construção do DeepSeek. Pelo que sabemos, foram cerca de 2.000 placas que custam pelo menos cerca de 30 mil dólares cada. Ou seja, o investimento feito em torno do DeepSeek não foi pequeno”, reflete.

Mensurando o impacto geopolítico

Para o professor Glauco Arbix, coordenador do Observatório da Inovação do Instituto de Estudos Avançados (IEA) da USP, o avanço da China no setor de IA não é uma surpresa, mas a velocidade com que novos modelos estão surgindo chama atenção. “A guerra já começou faz muito tempo. Essa concorrência, essa disputa entre as empresas, tem sido a marca desse embate, com cifras astronômicas desde o lançamento público do ChatGPT em novembro de 2022.″

Os Estados Unidos, segundo Arbix, tentaram frear esse crescimento com uma série de restrições, sobretudo no fornecimento de chips avançados. “Biden aprofundou o que Trump havia indicado em seu primeiro mandato, com medidas que tinham como alvo impedir a liderança da China em IA e em várias tecnologias críticas, como biotecnologia, biologia sintética e computação quântica, dificultando o avanço chinês”, analisa o professor. No entanto, o DeepSeek prova que os chineses encontraram alternativas para driblar essas barreiras.

Glauco Arbix - Foto: Marcos Santos / USP Imagens
Glauco Arbix - Foto: Marcos Santos / USP Imagens

E se, por um lado, a redução de custos pode tornar a tecnologia mais acessível, por outro, ainda há dúvidas sobre até que ponto esses modelos são realmente abertos e transparentes. “Temos que lembrar que a imprensa faz um grande alarde, mas há vários tipos de open source. Os chineses não divulgaram seus bancos de dados”, alerta o professor Arbix.

Um jogo de dados e regulamentação

No cenário brasileiro, a regulamentação do uso de dados para treinar inteligências artificiais ainda é um ponto de incerteza. Para Anderson Röhe, especialista em Direito Digital e pesquisador da Cátedra Oscar Sala do Instituto de Estudos Avançados (IEA) da USP, a proteção dos dados esbarra na falta de transparência de empresas que operam globalmente.

“A OpenAI, que começou dizendo que era aberta, na verdade não era aberta. A gente não sabe de onde vem essa base de dados”, afirma. O problema se agrava quando se considera que muitas dessas informações podem ter sido coletadas sem consentimento, o que contraria princípios estabelecidos na Lei Geral de Proteção de Dados (LGPD).

Anderson Röhe Fontão Batista - Foto: arquivo pessoal
Anderson Röhe Fontão Batista - Foto: arquivo pessoal

Segundo Röhe, a questão do consentimento é um dos principais desafios da regulação, pois o modelo atual pode ser insuficiente para garantir proteção real ao usuário. “Há muitas discussões dizendo que consentimento só não basta. E como se dá isso? Muitas pessoas dizem que ele teria que ser dado para cada etapa desse processo, o que é algo que não dá para fazer”, explica. De acordo com o especialista, a falta de clareza no uso de dados levanta dúvidas sobre a soberania digital do Brasil, que ainda depende de infraestruturas externas, como serviços de computação em nuvem de empresas americanas e chinesas.

E a disputa entre Estados Unidos e China pelo domínio da IA também impacta essa questão. Enquanto os americanos impõem restrições ao compartilhamento de chips e dados, os chineses adotam uma abordagem mais flexível. “Os EUA têm um discurso incisivo em dizer que é proibido copiar, a China não tem esse discurso, ela diz que a inovação se dá de forma incremental e disruptiva”, analisa Röhe.

Para ele, a falta de um marco regulatório claro no Brasil pode dificultar a posição do País nesse embate, tornando-o ainda mais dependente das potências globais. “Temos o projeto de lei 2338/2023 e ele tem o projeto de regulamentação, mas entre 2024 e 2025 esse PL sofreu uma desidratação”, alerta. “No Brasil, o modelo era próximo do modelo europeu porque era pró-sociedade e não do lado das big techs”. De acordo com Röhe, na reta final do ano passado, o texto ganhou uma nova versão com o argumento de não limitarmos nossa capacidade de inovação.

“Fazer o dever de casa”

Mais do que apenas um feito tecnológico, o modelo chinês tem colocado em xeque o domínio da OpenAI e do Vale do Silício na corrida da IA. “Quando empresas chinesas lançam sistemas mais baratos e se mostram tão eficientes quanto os americanos, além de serem em código aberto, isso significa que um número gigantesco de desenvolvedores pode trabalhar e potencializar o universo das inovações”, aponta Glauco Arbix.

Para os especialistas, a questão agora é medir o impacto desse movimento para países em desenvolvimento, como o Brasil. Na opinião de Fabio Cozman, “esse tipo de divulgação aberta abre oportunidades para empresas interessadas em usar a tecnologia, mas sem condições de desenvolver novos modelos e sem disposição para basear toda sua estratégia em modelos proprietários”.

Fabio Gagliardi Cozman - Foto: arquivo pessoal
Fabio Gagliardi Cozman - Foto: arquivo pessoal

“O Brasil está fazendo seu dever de casa”, argumenta Anderson Röhe, “o Plano Brasileiro de Inteligência Artificial (PBIA) traz metas temporais, orçamento próprio, há uma previsão de criação de um supercomputador, ou seja, o Brasil está se resguardando quanto à infraestrutura”. Para ele, o que falta é saber se estamos na velocidade certa para regulamentar ou, até mesmo, implementar nossas próprias soluções.

Como o DeepSeek foi criado?*

O modelo de linguagem DeepSeek-R1 foi desenvolvido com base em técnicas avançadas de inteligência artificial, especificamente o aprendizado profundo (deep learning). Ele foi treinado em uma enorme quantidade de textos públicos, como livros, artigos científicos e conteúdos on-line, para aprender a entender e gerar linguagem humana de forma coerente.

No núcleo do seu funcionamento está a arquitetura Transformer, que permite ao modelo analisar o contexto das palavras e prever respostas adequadas. O processo de desenvolvimento ocorreu em duas etapas principais: primeiro, um pré-treinamento com bilhões de palavras para capturar padrões da linguagem, seguido por um ajuste fino, em que o modelo foi especializado em tarefas como diálogos e respostas a perguntas, com a ajuda de avaliações humanas.

Tudo isso demandou um imenso poder de processamento, utilizando supercomputadores e GPUs, para transformar dados brutos em um sistema capaz de interagir de forma natural e eficiente com os usuários. O resultado é uma ferramenta que combina tecnologia de ponta e grandes volumes de informação para oferecer assistência inteligente e contextualizada.

Fonte: DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning

*Texto elaborado pelo DeepSeek com base em artigo escrito por desenvolvedores do modelo


Política de uso 
A reprodução de matérias e fotografias é livre mediante a citação do Jornal da USP e do autor. No caso dos arquivos de áudio, deverão constar dos créditos a Rádio USP e, em sendo explicitados, os autores. Para uso de arquivos de vídeo, esses créditos deverão mencionar a TV USP e, caso estejam explicitados, os autores. Fotos devem ser creditadas como USP Imagens e o nome do fotógrafo.