A DeepSeek AI provou que pode incomodar gigantes do setor, como OpenAI, Anthropic e Google com o lançamento dos modelos DeepSeek R1 e v3, que combinam alto desempenho com um custo muito abaixo do padrão de mercado.
O movimento gerou uma reação em cadeia, com a Alibaba lançando um modelo baseado no DeepSeek poucos dias depois, e debates sobre sanções dos EUA à exportação de chips para a China se intensificando.
Segundo Fabrício Carraro, especialista em IA e Program Manager na Alura, essa mudança no cenário pode redefinir o futuro do desenvolvimento de IA:
“O DeepSeek R1 surpreende pelo equilíbrio entre qualidade e custo. Enquanto modelos como o OpenAI o1 têm um desempenho excelente, o DeepSeek conseguiu atingir resultados comparáveis por um orçamento muito menor e ainda liberou o modelo como open-source, permitindo que qualquer empresa ou desenvolvedor faça testes, retreinamentos e implante a tecnologia conforme suas necessidades”, explica o Program Manager da Alura.
Além disso, Carraro destaca como a dependência da China de chips estrangeiros ainda representa um desafio, mas que o investimento massivo de empresas como Meta (US$ 65 bilhões só em 2025) e do projeto Stargate nos EUA (US$ 500 bilhões em infraestrutura de IA) podem ampliar essa disputa geopolítica e tecnológica.
DeepSeek e Alibaba: os LLMs
Diante desse cenário, o iMasters bateu um papo com Carraro, que explicou o cenário atual do mercado de LLMs
iMasters – Você acha que os modelos open-source estão realmente competindo com os proprietários, como os da OpenAI e Anthropic, ou ainda há uma grande diferença de desempenho?
Carraro – O lançamento dos modelos DeepSeek v3 e R1, seguido pelo Qwen-2.5-Max da Alibaba, comprovou que os modelos open source estão, hoje, competindo de igual para igual com os proprietários.
iMasters – O mercado está caminhando para um futuro onde os modelos open-source dominarão, ou as big techs ainda manterão a supremacia com seus modelos fechados?
Carraro – Acredito que ambos terão seu espaço: as big techs seguirão oferecendo produtos proprietários altamente refinados, enquanto as empresas poderão optar por rodar modelos open source em uma nuvem própria, reduzindo o risco de vazamento de dados. Essa concorrência tem sido extremamente benéfica para o ecossistema de pesquisa em IA.
iMasters – Diante desse cenário, o que podemos esperar para o futuro da IA generativa?
Carraro – Cada vez mais modelos estão surgindo em países inesperados, capazes de treinar IAs de alta qualidade com menos GPUs — um avanço viabilizado por essa nova técnica da DeepSeek. Esse é apenas um começo, mas o futuro é promissor.
iMasters – Como o avanço da DeepSeek impacta empresas, desenvolvedores e o próprio modelo de negócios das gigantes do setor?
Carraro – Vemos uma empresa com muito menos poder computacional e GPUs, mas com grande expertise em engenharia, está desenvolvendo uma alternativa para o treinamento de grandes modelos de linguagem. Esse avanço deve incentivar outras empresas e centros de pesquisa a explorarem novas abordagens para treinar seus modelos, utilizando GPUs menos potentes. No entanto, surge um desafio: escalar esses modelos para milhões de usuários. Nesse aspecto, as big techs levam vantagem, graças à sua infraestrutura robusta e parcerias estratégicas (Microsoft Azure, Amazon AWS, Google Cloud Provider), que garantem um serviço eficiente e sem grandes obstáculos.