DeepSeek cria impasse entre EUA e China por denúncia de contrabando de chips

deepseek

PEDRO S. TEIXEIRA
SÃO PAULO, SP (FOLHAPRESS)

O avanço tecnológico por trás da inteligência artificial generativa DeepSeek-R1 gerou um impasse entre Estados Unidos e China, após artigo mostrar que a startup chinesa conseguiu desenvolver tecnologia com uma fração dos chips disponíveis para os gigantes americanos.

A startup chinesa, de um lado, afirma que conseguiu o resultado ao combinar uma série de conceitos tecnológicos já descobertos na comunidade da tecnologia de maneira engenhosa.

De outro, consultorias e autoridades dos EUA levantam dúvidas sobre se os chineses obtiveram tamanho sucesso sem os chips mais potentes, de design americano.

A controvérsia envolve os chips H800, usados pela DeepSeek-R1, e os H100, mais potentes e proibidos na China.

A Nvidia podia vender peças com tecnologia limitada, como os H800, até outubro de 2023, quando o então presidente dos EUA Joe Biden também vetou esse comércio. O artigo sobre o desenvolvimento da DeepSeek-V3 e a DeepSeek-V3-R1 cita o uso de 2.048 placas Nvidia H800 durante o pré-treinamento do modelo, quando se gasta mais poder computacional.

Depois do anúncio do novo modelo da DeepSeek, em 20 de janeiro, levantou-se a suspeita de que a DeepSeek tenha usado também placas H100, e a Casa Branca e o FBI iniciaram uma investigação para averiguar um possível contrabando desses chips para a China.

A placa H800 tem a mesma arquitetura, com dois núcleos de processamento, que a H100, à exceção da capacidade máxima de transmissão de dados: a H100 transmite 900 gigabytes por segundo, mais que o dobro que a H800, com 400 gigabytes por segundo.

Como comparação, a OpenAI usou, entre 2022 e 2023, 20 mil chips A100 (da geração anterior) para desenvolver o GPT-4, ou seja, muito mais que a startup chinesa. Segundo cálculo do banco suíço UBS, o maquinário da americana corresponderia a 8.000 placas H100 -aquela similar à H800 usada pela DeepSeek, apesar de ter mais do dobro da velocidade na transmissão de dados.

Tanto para a H100 quanto para a H800, a montagem de um servidor com oito chips sai por cerca de US$ 400 mil (quase R$ 2,4 milhões).

CHIPS DE IA DA NVIDIA

H100

Unidade de processamento gráfico de 144 multiprocessadores. Tem potência de 1.979 TFLOPs (trilhões de operações de ponto flutuante por segundo). Usa tecnologia mais recente de ligação entre os núcleos, com transmissão de 900 GB/s. O consumo energético é de 700 watts.

H800

Unidade de processamento gráfico de 144 multiprocessadores. Tem potência de 1.979 TFLOPs (trilhões de operações de ponto flutuante por segundo). Seu link de transmissão usa tecnologia obsoleta e entrega metade da performance do que o H100 original (400 GB/s). Consumo energético é de 700 watts.

H20

Unidade de processamento gráfico de 78 multiprocessadores. Tem potência de 296 TFLOPs (trilhões de operações de ponto flutuante por segundo). Possui mesmo link de transmissão da H100, com capacidade de 900 GB/s. Consumo energético é de 400 watts.

Embora pareça um detalhe, a conexão limitada que diferencia a H800 da H100 inviabiliza o uso da primeira em operações que exijam máximo poder de processamento dos chips. De acordo com o UBS, não adianta que as peças façam trilhões de operações em seus núcleos se as informações não forem transmitidas e armazenadas.

Os dados apresentados no artigo da DeepSeek mostram que o avanço em engenharia de software da startup chinesa representaria um ganho de eficiência em termos de demanda de memória de oito vezes, o que chocou empresas e autoridades americanas.

Apesar das dúvidas sobre os números, a façanha da empresa teve reconhecimento de pesquisadores da Meta, da OpenAI e de investidores de risco atuantes no mercado de IA.

O valor mencionado pela DeepSeek de US$ 5,6 milhões para treinar o modelo foi uma estimativa de qual teria sido o custo se o serviço tivesse sido contratado em uma nuvem, com base no número de horas de processamento necessárias.

Diferentemente da OpenAI, a DeepSeek escolheu montar datacenters próprios, uma vez que o governo americano também limita o acesso das empresas chinesas aos grandes provedores de nuvem equipados com os melhores chips.

Os americanos, contudo, citam ter evidências de que as barreiras anteriores estariam sendo desrespeitadas. Hoje, as empresas chinesas podem ter acesso apenas à placa H20 que tem uma transmissão de dados semelhante à da H100, mas uma supressão de desempenho de 80% em relação a esse chip mais potente, mas a tese é que os chineses conseguem contrabandear peças por meio de Singapura.

A ilha no sudeste asiático respondeu por 20% da receita da Nvidia com chips no terceiro trimestre de 2024, mostra o balanço de pagamentos protocolado pela big tech na SEC, a Comissão de Valores Mobiliários americana.

Outras possíveis rotas de contrabando citadas por congressistas americanos em sessão do Congresso foram Malásia e Emirados Árabes Unidos -o país do Golfo tem comprado muitos chips para desenvolver o próprio complexo de IA.

Autoridades chinesas responderam em publicações locais e na sede da ONU, em Nova York, que os americanos usam o argumento da segurança nacional para politizar assuntos comerciais e tecnológicos, ferindo direitos de empresas chinesas.

“Da Huawei ao TikTok, e agora o DeepSeek, quantas empresas mais os Estados Unidos pretendem banir?”, questionou o porta-voz da China na ONU, Fu Cong. O ChatGPT, assim como redes sociais da Meta, também estão sob veto do regime do Partido Comunista Chinês.

Em resposta à investigação do FBI, a Nvidia afirmou que exige compliance rigoroso de seus parceiros e que tomará as medidas cabíveis caso identifique violações.

Um porta-voz da Nvidia disse à Reuters que muitos dos clientes da empresa detêm companhias operando em Singapura por questões fiscais e utilizam essas entidades para produtos destinados aos EUA e ao Ocidente.

Investigação do FT mostrou, em 2024, que peças proibidas eram vendidas na feira de Shenzen onde fica a DeepSeek. Os chips seriam enviados em pacotes identificados com nomes de empresas de outras áreas de atuação, e a reportagem do jornal britânico não apontou vínculos da Nvidia com a prática.

Também não há indícios sobre se as quantidades exportadas seriam suficientes para suprir uma operação do tamanho da DeepSeek, com milhares de chips.

Para o diretor da China no banco dos Brics, Elias Jabbour, atualmente sediado em Xangai, mesmo se houve contrabando, trata-se de uma tática adotada ao longo da história para se desenvolver. “Os chineses operam em várias frentes para escapar do bullying tecnológico.”

O primeiro passo do plano foi eleger a inteligência artificial como um foco estratégico -o regime de Xi Jinping definiu o objetivo de ser líder global na tecnologia até 2030.

Uma tática para cumprir a meta é o leapfrog, o pulo do sapo, no qual os desenvolvedores chineses pulam etapas e começam a trabalhar com tecnologias já avançadas. Os americanos estimavam que a China entrou na corrida pela IA generativa com cerca de dois anos de atraso, mas, ao superar fases intermediárias, igualaram resultados em tempo menor.

Além disso, a China recorre a práticas de captura de tecnologia, seja por meio de transferências forçadas de patentes ou espionagem industrial, por meio de jovens pesquisadores chineses que vão trabalhar no exterior.

Empresas estrangeiras que desejam operar na China, por exemplo, muitas vezes são obrigadas a formar joint ventures com empresas locais, compartilhando tecnologia como condição para acesso ao mercado.

ENTENDA AVANÇO TECNOLÓGICO DA DEEPSEEK

A DeepSeek combinou várias técnicas para melhorar a eficiência no desenvolvimento do modelo atual.

Segundo o relatório do UBS, a DeepSeek alcançou esses avanços com uma abordagem inovadora para implementar as técnicas abaixo ao mesmo tempo, maximizando o desempenho.

– Adoção de formato numérico mais leve: Os modelos mais antigos eram treinados com uma precisão de 32 bits nos números, e a DeepSeek decidiu adotar um padrão de oito bits. “Essa escolha reduz significativamente a sobrecarga computacional e de memória para o treinamento, ao custo um nível mais baixo de precisão”, afirmam os analistas do UBS. A DeepSeek conseguiu resolver essa limitação utilizando cálculos de alta precisão quando considerava necessário.
– Atenção latente multi-cabeça (MLA): essa técnica comprime as informações armazenadas durante o treinamento. No artigo de divulgação do DeepSeek, os especialistas afirmam que essa abordagem ainda gerou um grau adicional de eficiência, porque o modelo teria aprendido a filtrar os dados mais relevantes por conta própria.
– Mistura de especialistas: essa técnica divide o modelo de IA em um grupo de submodelos especializados em atividades diferentes. Um modelo auxiliar, então, decide quais especialistas convocar para atender à tarefa dada pelo usuário.

Adicionar aos favoritos o Link permanente.