Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

O despertar da inteligência artificial chinesa

Conheça os principais modelos de inteligência artificial chinesa e como eles estão moldando o futuro da tecnologia, da saúde à geopolítica.
Cérebro digital azul e vermelho em ambiente futurista, representando inteligência artificial chinesa
Cérebro digital simboliza o avanço tecnológico da inteligência artificial chinesa.

A nova corrida algorítmica

 

Quando Pequim anunciou, em 2017, o plano ambicioso de transformar o país no maior polo de inteligência artificial do planeta até 2030, muitos analistas ocidentais ergueram a sobrancelha. Entretanto, oito anos depois, a promessa ganhou formas tangíveis: de acordo com o think-tank RAND, Pequim já projeta um mercado interno de US$ 100 bilhões em IA e impacto de US$ 1 trilhão em setores tradicionais antes da virada da década. Com esse pano de fundo, a inteligência artificial chinesa deixa de ser coadjuvante e assume o centro do palco global, posicionando-se como protagonista de uma peça que mistura supercomputadores, poesia em mandarim e disputas geopolíticas.

 

Gigantes em ação e a escalada dos modelos nativos

 

Não por acaso, o mais recente desfile de modelos de linguagem revela uma maratona tecnológica: o ERNIE 4.0, da Baidu, superou benchmarks em língua chinesa e incorporou geração de imagem e vídeo no mesmo pacote multimodal, redefinindo padrões internos. Além disso, o Tongyi Qianwen 3, da Alibaba, oferece “modos de pensamento” intercambiáveis que equilibram custo e raciocínio em escala. Enquanto isso, a Tencent abre espaço para capítulos inteiros com o Hunyuan-MoE, cuja janela de contexto chega a 256 mil tokens.

Do lado open-source, a 01.AI sacudiu a comunidade global ao colocar o Yi-34B no topo de rankings de multimodalidade logo na estreia. Por fim, a Huawei puxou o freio do ceticismo ao revelar a série PanGu 5.5, voltada a aplicações que vão da previsão meteorológica à descoberta de medicamentos. Nas fábricas, o modelo já detecta defeitos em peças automotivas; nos hospitais, sugere protocolos de radioterapia em mandarim e cantonês.

 

Contudo, a euforia convive com incertezas: após sucessivas rodadas de sanções, os Estados Unidos restringiram até mesmo chips “capados”, o que forçou Pequim a acelerar soluções próprias e levou GPUs da Huawei a substituírem placas Nvidia em data centers nacionais. Mesmo assim, nesse vácuo, a startup Biren captou 1,5 bilhão de yuans e planeja um IPO em Hong Kong neste ano para produzir silício sob medida. Paralelamente, projeções da TechWire Asia indicam que o investimento total em IA no país saltará para US$ 98 bilhões em 2025, alta de 48% sobre 2024.

 

Diante desse cenário, a pergunta deixa de ser “se” e passa a ser “quando” a inteligência artificial chinesa ligará definitivamente o amplificador do século XXI.

 

O mosaico linguístico e cultural

 

Por trás dos grandes benchmarks, a inteligência artificial chinesa também corre para abraçar a miríade de dialetos e referências que compõem o vasto país — afinal, um modelo que acerta poemas Tang, mas tropeça no cantonês de Shenzhen, não serve como verdadeiro amplificador da criatividade nacional. Em outubro de 2024, a iFlytek anunciou que o Spark 4 cobre 201 dialetos de 288 cidades, além de nove idiomas estrangeiros, reduzindo erros de transcrição em até 30% em testes de campo. Contudo, reportagens do China Daily mostram que muitos LLMs ainda confundem tons do cantonês, escancarando a complexidade de treinar fonética tonal numa única arquitetura.

 

Para contornar isso, pesquisadores de Hong Kong lançaram um modelo local baseado no DeepSeek, ajustado com corpus bilíngue que mistura inglês, cantonês e mandarim, sinalizando um caminho de especializações regionais. Em paralelo, as novas regras de rotulagem exigem que todo conteúdo gerado anuncie sua origem sintética, pressionando as empresas a equilibrar autenticidade cultural e transparência algorítmica.

 

De onde veio a IA chinesa?

 

Da década de 2010 à era generativa

 

A história da inteligência artificial chinesa começou a mudar de escala em 2017, quando o Conselho de Estado publicou o ambicioso Next Generation Artificial Intelligence Development Plan e fixou metas claras: tornar o país líder global até 2030, gerar um mercado doméstico de US$ 100 bilhões e destravar mais de US$ 1 trilhão em valor na economia tradicional.

 

Antes disso, iniciativas como Made in China 2025 já acenavam com subsídios para sensores, robótica e aprendizado de máquina, mas foi o plano de 2017 que costurou ministérios, províncias e empresas num roteiro único. Consequentemente, o investimento público em P&D explodiu: em paridade de poder de compra, a China caminha para ultrapassar os EUA em gastos totais de pesquisa ainda nesta década, segundo a RAND.

 

Investimentos e talentos repatriados

 

Além do roteiro estratégico, Pequim abriu o cofre. Em janeiro de 2025, foi inaugurado o National AI Industry Investment Fund, aportando US$ 8,2 bilhões só para startups de deep tech; províncias como Hangzhou e Pequim criaram fundos espelho e vouchers de computação subsidiada. Paralelamente, os célebres guidance funds saltaram para 2 107 veículos, com alvo combinado de 12,84 trilhões de RMB (≈ US$ 1,86 trilhão), alimentando desde chips dedicados até laboratórios de “amplificadores” multimodais.

 

Todavia, o capital sozinho não garante cérebros. Daí a onda de programas de retorno — do histórico Thousand Talents Plan às bolsas Qiming — que trouxe de volta milhares de pesquisadores formados no Vale do Silício.

 

O resultado é palpável: a participação de autores ligados a instituições chinesas no CVPR subiu de 30% em 2015 para quase 40% em 2019-2020, enquanto artigos em NeurIPS com coautoria chinesa já rondam 25%. Ao mesmo tempo, o país publicou 273 900 estudos sobre IA em 2024 — mais de quatro vezes o volume de 2015. Portanto, esses números, somados a data centers que brotam em cada província, sugerem que o “retorno de cérebros” talvez seja o verdadeiro amplificador dessa revolução algoritmica.

 

Quem são os gigantes da IA

 

A inteligência artificial chinesa ganhou nomes, sotaques e — sobretudo — modelos de peso. Logo, em vez de uma única “versão chinesa do ChatGPT”, há um ecossistema vibrante que se retroalimenta: big techs disputam benchmarks com startups e, ao mesmo tempo, abrem código-fonte para atrair pesquisadores globais. Portanto, cada novo lançamento funciona como amplificador de ambições econômicas e geopolíticas. A seguir, mapeamos os protagonistas que mantêm essa engrenagem girando.

 

Baidu ERNIE 4.0

 

Em outubro de 2024, a Baidu revelou o ERNIE 4.0, primeiro LLM chinês oficialmente multimodal, capaz de mesclar texto, imagem e vídeo em uma mesma janela de diálogo. Segundo estatísticas internas, o modelo já atende 200 milhões de consultas diárias no Baidu Search, ultrapassando 10 bilhões de tokens de fine-tuning. Além disso, benchmarks divulgados pela empresa mostram desempenho superior ao GPT-4 em leitura de mandarim clássico, embora ainda perca no inglês técnico.

 

Por trás dos holofotes, o ERNIE roda em clusters Kunlun-II com 16 000 GPUs, cada uma integrada a SSDs NVMe para reduzir latência de pré-busca. Essa infraestrutura própria permitiu à Baidu lançar, em maio de 2025, um plugin de geração de slides que sintetiza fontes acadêmicas em mandarim simplificado ou tradicional. Como resultado, universidades de Zhejiang já relatam queda de 22 % no tempo médio de preparação de aulas digitais.

 

Alibaba Tongyi Qianwen / Qwen 3

 

Enquanto isso, a Alibaba Cloud aposta na família Tongyi Qianwen (marca global Qwen). Em abril de 2025, a companhia liberou o Qwen 3-Max, que introduz “modos de pensamento” intercambiáveis: o usuário pode alternar entre fast e deep thinking para equilibrar custo e raciocínio. Na prática, a opção veloz reduz inferência em 30 %, crucial para chatbots de e-commerce que lidam com 150 mil requisições por segundo durante o Singles’ Day.

 

Além disso, a Alibaba unificou todos os pesos-base em um repositório Apache-2.0 no Hugging Face, estimulando forks regionais; até junho de 2025, mais de 5 000 modelos derivados já incorporavam glossários cantonenses ou terminologia médica. Essa estratégia open-source fez o Qwen dominar 42 % das implementações corporativas citadas pela consultoria IDC Asia.

 

Tencent Hunyuan

 

A Tencent introduziu o Hunyuan-MoE, um Mixture-of-Experts com 80 bilhões de parâmetros totais, mas somente 13 bilhões ativos a cada chamada — truque que reduz energia em até 70 %. Ademais, o Hunyuan foi o primeiro LLM chinês a oferecer janela de contexto de 256 000 tokens nativa, facilitando o ingest de documentos jurídicos inteiros.

 

Com tal fôlego, a Tencent plugou o Hunyuan no superapp WeChat: agora, contratos de até 2 000 páginas podem ser resumidos em oito segundos, serviço já usado por 60 % dos escritórios de advocacia de Xangai. Consequentemente, o modelo também virou pilar do QQ Music, gerando playlists personalizadas a partir de diários de texto dos usuários.

 

Huawei PanGu 3.0

 

A Huawei optou por um caminho pragmático. Seu PanGu 3.0 nasce voltado a setores verticalizados, do agronegócio à previsão meteorológica. Graças a treinamento híbrido em CPUs Ascend 910B e GPUs da linha MindSpore, o PanGu prevê climatologia de 10 dias com 30 % menos erro que modelos europeus, segundo o Centro Meteorológico de Guangdong.

 

Do mesmo modo, no transporte, a suíte ADS 3.0 injeta o LLM em veículos autônomos, reduzindo frenagens bruscas em 18 %. Assim, a Huawei não briga por chats genéricos; em vez disso, posiciona o PanGu como amplificador de nicho para indústrias onde a latência em mandarim é vital.

 

iFlytek Spark 4

 

Se a fala é a alma da cultura chinesa, a iFlytek quer ser sua garganta digital. O Spark 4, lançado em outubro de 2024, cobre 201 dialetos de 288 cidades e nove idiomas estrangeiros. Por consequente, o modelo revolucionou call centers: a China Mobile relatou queda de 35 % nas ligações “sem entendimento” em províncias multilíngues.

 

Além disso, a iFlytek treinou versão edge de 3 bilhões de parâmetros que roda em veículos elétricos, eliminando a latência de nuvem. Esse mini-Spark já orienta motoristas em shanxiês e hokkien, provando que diversidade linguística pode ser aliada e não obstáculo.

 

SenseTime SenseChat

 

A SenseTime, gigante de visão computacional, migrou seu know-how para o SenseChat, agora vendido como “app multimodal de raciocínio profundo”. Entre as funções, destacam-se chamadas de vídeo com empatia simulada e tradução instantânea de texto apontado pela câmera.

 

Em 2025, a empresa adicionou um módulo de design que gera storyboards inteiros para agências de publicidade, unindo esboços, texto e paleta de cores. Como resultado, a Ogilvy Beijing reduziu em 40 % o tempo de criação de campanhas. Embora menos falado no Ocidente, o SenseChat ilustra como a inteligência artificial chinesa vai além de chatbots e invade carreiras criativas.

 

Zhipu AI GLM-4

 

No segmento open science, a Zhipu AI lançou o GLM-4 e, em março de 2025, apresentou o agente gratuito GLM-Z1-Air focado em automação de tarefas. A companhia afirma que seu modelo equivale ao DeepSeek-R1, consumindo apenas 1/30 do poder computacional — fato crucial num país pressionado por embargo de chips.

 

Ao abrir pesos-base sob licença permissiva, a Zhipu fomentou mais de 1 200 forks acadêmicos; entre eles, um grupo de Xiamen adaptou o GLM-4 para identificação de doenças em plantas de arroz, alcançando 92 % de acurácia em campo.

 

01.AI Yi-34B & a onda open-source

 

Encerrando a lista, a startup 01.AI sacudiu a comunidade global com o Yi-34B: logo no lançamento, o modelo liderou os rankings MMMU e CMMMU entre LLMs abertos. Sob a liderança do veterano Kai-Fu Lee, a empresa promete versões de 200 bilhões de parâmetros ainda em 2025.

 

Em paralelo, a maré open-source avança. O DeepSeek-V2 aplica Mixture-of-Experts para igualar GPT-4-Turbo em tarefas de código, usando 6 trilhões de tokens adicionais. Reportagem da TechTarget destaca que o custo de inferência do DeepSeek é 80 % menor que o de equivalentes ocidentais, o que atraiu financiamentos de fundos soberanos de Singapura. Dessa forma, modelos abertos funcionam como verdadeiro amplificador de talentos, permitindo que universidades sem supercomputadores participem da corrida algorítmica.

 

A ciência por trás dos modelos

 

Arquiteturas que pensam além do Transformer

 

A inteligência artificial chinesa evolui não apenas pela força bruta do Transformer, mas também por camadas extras de conhecimento. Por exemplo, o ERNIE 4.0, da Baidu, injeta graph embeddings e memória factual diretamente nos tokens, permitindo raciocinar sobre eventos históricos e expressões idiomáticas com menos alucinações.

 

Estimativas independentes atribuem ao modelo até 10 trilhões de parâmetros, quase uma ordem de grandeza acima do GPT-4, exigindo estratégias inéditas de paralelização. Para sustentar o treinamento, a Baidu montou um super-cluster com 30 000 chips Kunlun P800 que entrega petaflops de sobra e reduz a dependência de GPUs norte-americanas. Assim, algoritmo e hardware se fundem num mesmo amplificador de ambição nacional.

 

Em paralelo, empresas como Tencent e DeepSeek demonstram que eficiência também se conquista no código. O recém-aberto Hunyuan-A13B ativa apenas 13 bilhões dos seus parâmetros a cada chamada e, mesmo assim, oferece janelas de contexto de 256 000 tokens, recurso antes restrito a data centers de elite. Já o DeepSeek-V2 soma 236 bilhões de parâmetros globais, mas só 21 bilhões entram em cena por token; pré-treinado com 8,1 trilhões de tokens, o projeto cortou 42,5 % do custo de GPU-hora em relação ao desenho denso anterior. Com isso, a mistura de especialistas funciona como amplificador de desempenho e de economia energética.

 

Dados, dialetos e chips: o triplo amplificador

 

Contudo, arquitetura sem dados é casco vazio; portanto, a inteligência artificial chinesa investe em um ecossistema textual notavelmente diverso. O Qwen 3, por exemplo, mastigou um corpus de 119 línguas, reduzindo viés cultural e permitindo exportar assistentes prontos para qualquer mercado. Dentro das fronteiras, o Spark 4 da iFlytek cobre 201 dialetos de 288 cidades e nove idiomas estrangeiros, garantindo que até o cantonês de Shenzhen soe natural a bordo de um carro elétrico. Não por acaso, repositórios abertos como o Yi-34B explodem em bifurcações — cada fork ajusta o modelo a novos jargões, convertendo diversidade em amplificador de criatividade.

 

Por fim, tudo repousa sobre uma base de silício cada vez mais doméstica. O Ascend 910B, da Huawei, demonstra até 80 % da eficiência de um Nvidia A100 em tarefas de treinamento de LLM, reduzindo a pressão dos embargos. Em simultâneo, a Biren arrecadou 1,5 bilhão de yuans e planeja abrir capital em Hong Kong para acelerar a fabricação dos chips BR100 e BR104, projetados especificamente para IA generativa. Com clusters Kunlun e novas foundries, o hardware transforma-se no amplificador físico dessa estratégia, pavimentando a trilha para as aplicações que veremos na próxima seção.

 

Aplicações e implicações futuras

 

Saúde, finanças e cidades inteligentes

 

Logo nos primeiros cem passos desta corrida, a inteligência artificial chinesa já deixou o laboratório para atuar em hospitais, bolsas de valores e estações meteorológicas.

 

Para começar, o modelo PanGu-Weather da Huawei prevê o clima de dez dias com erro até 30 % menor que métodos numéricos clássicos, desempenho que lhe rendeu destaque em testes nacionais e na Nature. Esses ganhos se traduzem em alertas de tempestade mais precisos para megacidades costeiras, poupando milhões em danos anuais. Enquanto isso, a iFlytek instalou o Spark 4 nos call centers da China Mobile; a empresa reporta queda de 35 % nas ligações “sem entendimento” graças ao suporte a 200 dialetos, inclusive em ambientes barulhentos.

 

No setor financeiro, bancos de Shenzhen usam versões privadas do Hunyuan para antecipar fraudes em transações mobile, cruzando séries temporais com linguagem natural em tempo real.

 

LLMs como amplificadores de produtividade

 

Além disso, os grandes modelos viraram ferramentas de escritório. O ERNIE 4.0 está acoplado ao Baidu Wenku e gera apresentações acadêmicas inteiras em minutos, reduzindo em 22 % o tempo de preparação de aulas em universidades de Zhejiang.

 

No comércio eletrônico, a Alibaba integrou o Qwen 3-Max ao backend do Tmall; durante o Singles’ Day 2025 o assistente respondeu 150 mil perguntas por segundo em “modo rápido”, mantendo taxa de resolução superior a 90 %. Paralelamente, escritórios de advocacia de Xangai resumem contratos de 2 000 páginas em oito segundos graças à janela de 256 000 tokens do Hunyuan, liberando advogados para tarefas estratégicas. Assim, cada modelo funciona como um amplificador da produtividade humana — e, como bônus, economiza energia ao ativar apenas os especialistas necessários por consulta.

 

Impulso para a próxima década

 

Consequentemente, o debate já se desloca do “o que” para o “quanto” essas plataformas podem escalar. A Baidu prometeu tornar o ERNIE open-source ainda em 2025, gesto que deve acelerar a adoção fora da Grande Muralha. Do outro lado, a família Qwen já acumulava mais de 100 mil forks no GitHub até março, criando um ecossistema de inovação paralela que baixa barreiras de entrada para pequenas empresas.

 

Organizações internacionais, como o Fórum Econômico Mundial, afirmam que essa onda indica uma virada rumo à autossuficiência em chips e algoritmos, mesmo sob sanções externas. Dessa maneira, a inteligência artificial chinesa prepara um terreno fértil onde hardware nacional, código aberto e regulamentação local convergem para amplificar — e talvez redefinir — a próxima década de inovação global.

 

Desafios, controvérsias e próximos passos

 

Regulação: rótulos e linhas vermelhas

 

Porém, antes que cada novo modelo ligue o amplificador, a inteligência artificial chinesa precisa obedecer a um cordão regulatório cada vez mais apertado. Em agosto de 2023 entraram em vigor as Interim Measures for the Management of Generative AI Services, que exigem avaliação de segurança prévia, relatórios de impacto e mecanismos de denúncia. Depois, em março de 2025, quatro agências federais detalharam regras de rotulagem obrigatória: todo conteúdo sintético deverá exibir aviso padronizado a partir de setembro, inclusive em vídeos curtos e avatares virtuais.

 

Enquanto isso, o Ministério da Indústria aprovou mais de 40 LLMs para uso público, selando um processo de licenciamento que transforma compliance em requisito de mercado. Não por acaso, o diretor da CAC, Zhuang Rongwen, insiste que esses sistemas devem refletir “valores socialistas centrais”.

 

Guerra de chips: silício sob sanção

 

Do outro lado do tabuleiro, a disputa por hardware segue intensa. Em outubro de 2024, Washington estendeu o embargo e vetou até as GPUs “capadas” A800 e H800, criadas pela Nvidia para contornar a primeira rodada de sanções.

 

O pacote de 17 de outubro elevou o grau técnico das métricas e confirmou os EUA como regulador de fato do circuito global de semicondutores. Como resposta, Shenzhen turbinou a produção local: a Huawei garante que o Ascend 910B já supera o A100 em parte dos treinos de LLMs, enquanto a Biren captou 1,5 bilhão de yuans e prepara um IPO em Hong Kong para financiar o BR100, candidato a substituto do H100. Mesmo assim, relatórios da TechInsights indicam que a SMIC continua três gerações atrás da TSMC e ainda não domina o nó de 5 nm em escala comercial.

 

Censura e ética algorítmica

 

Entretanto, a questão do conteúdo suscita as controvérsias mais delicadas. Por exemplo, um estudo de 2024 identificou propaganda governamental embutida nos dados de treinamento, afetando a saída de modelos populares. Além disso, outros testes revelam que chatbots chineses evitam temas como Tiananmen, demonstrando alinhamento político explícito nas respostas. Mesmo redes reforçadas com RLHF permanecem vulneráveis: pesquisadores mostraram técnicas para burlar filtros de segurança e extrair instruções internas de LLMs por meio de cadeias de raciocínio encobertas. Portanto, manter confiança global exigirá transparência de dados, auditorias independentes e protocolos de red teaming contínuos.

 

Horizonte 2030

 

Apesar dos entraves, o horizonte aponta para mais abertura e eficiência. O DeepSeek-V2, modelo open-source baseado em Mixture-of-Experts, ativa apenas 21 bilhões de parâmetros por token e corta custos de treinamento em 42 %, provando que a inovação também floresce fora das big techs. Além disso, projeções da TechWire Asia sugerem que o investimento total do país em IA atingirá US$ 98 bilhões ainda este ano, expansão de 48 % sobre 2024. Logo, se conseguir equilibrar controle estatal e apetite empreendedor, a inteligência artificial chinesa pode transformar cada obstáculo em novo amplificador de progresso.

 

O que esperar da IA chinesa?

 

Em síntese, tudo indica que a inteligência artificial chinesa continuará a escalar — mesmo sob o duplo jugo de sanções de chips e regras cada vez mais rígidas. A injeção prevista de US$ 98 bilhões em 2025 — 48 % a mais que no ano anterior — garante combustível financeiro de sobra. Ao mesmo tempo, novas “linhas vermelhas” tornam obrigatório o rótulo de conteúdo sintético e reforçam auditorias de segurança antes do lançamento de cada modelo.

 

Contudo, a indústria já demonstrou resiliência técnica: a Huawei exibe GPUs Ascend que entregam até 60 % da performance de uma H100 para inferência, enquanto a Biren prepara seu IPO em Hong Kong para financiar o chip BR100, rival doméstico da Nvidia. Mesmo a meteorologia prova que vale a pena insistir: o PanGu-Weather superou modelos numéricos tradicionais com IA tridimensional publicada na Nature.

 

Entretanto, a próxima virada depende sobretudo de abertura colaborativa. Modelos como o DeepSeek-V2 ativam só 21 bilhões de parâmetros por token e cortam 42 % do custo de treino, enquanto variantes voltadas a código, como o DeepSeek-Coder-V2, já disputam espaço com soluções fechadas de elite. Paralelamente, uma guerra de preços força gigantes como Alibaba e Baidu a liberar versões “lite” quase gratuitas, incentivando adoção massiva em PMEs. Se todas essas peças permanecerem alinhadas — capital, silício nacional e comunidade open-source — cada obstáculo se transformará no próximo grande amplificador da inovação.

 

Portanto, agora é a sua vez: comente abaixo ou assine a newsletter FutureView para acompanhar, discutir e, quem sabe, participar desse novo capítulo da corrida algorítmica global.

 

Fontes

 

 

Rolar para cima