DeepSeek lança modelo experimental focado em eficiência de custo
O DeepSeek-V3.2-Exp utiliza atenção esparsa para reduzir o custo da API em mais de 50%

Netuno Network
24/10/25
A DeepSeek, uma das competidoras mais fortes no cenário de Inteligência Artificial, anunciou o lançamento de seu modelo experimental DeepSeek-V3.2-Exp. O modelo é classificado como um "passo intermediário" para sua arquitetura de próxima geração, focando em resolver o alto custo da computação de IA.
O foco na eficiência: atenção esparsa
A principal inovação é o DeepSeek Sparse Attention (DSA). Essa técnica permite que o modelo processe grandes volumes de dados de forma inteligente. Em vez de gastar recursos analisando todo o texto (como modelos anteriores), o DSA foca apenas nas partes mais relevantes, acelerando o treinamento e a inferência em contextos longos de até 128.000 tokens.
Redução de custo sem perda de qualidade
A otimização gerada pelo DSA permitiu que a DeepSeek tomasse uma decisão agressiva no mercado: cortar os preços de sua API em mais de 50%. Essa redução torna o DeepSeek-V3.2-Exp uma opção até 30 vezes mais econômica que modelos rivais como GPT-4o e Gemini.
Apesar de ser um modelo experimental e focado em custo, ele mantém o desempenho de seu antecessor, o V3.1-Terminus, em tarefas complexas de raciocínio e uso de ferramentas . A estratégia da DeepSeek é clara: tornar a IA avançada mais acessível, democratizando a tecnologia para pequenas empresas e desenvolvedores.
O Caminho para a próxima geração
Ao validar a arquitetura de atenção esparsa para otimização de custo (Source 1.6), o V3.2-Exp prepara o terreno para o que se espera ser o grande lançamento da companhia, o futuro DeepSeek V4. Foto de Solen Feyissa na Unsplash

