Notícias empolgantes para a comunidade de IA! A nova família de modelos grandes de linguagem (LLMs) Qwen3 já é realidade. Esta última adição à série de modelos Qwen apresenta desempenho, flexibilidade e acessibilidade impressionantes. Certamente, essas características a tornam uma ferramenta muito interessante para pesquisadores e desenvolvedores.

Qwen3: pesos abertos e licença permissiva
Como já é tradicional para o pessoal da Alibaba Cloud, desenvolvedora da série Qwen, os modelos Qwen3 vêm em vários formatos e tamanhos. O modelo principal da série, Qwen3-235B-A22B, alcança resultados competitivos em avaliações de benchmark em uma variedade de domínios. Eles incluem codificação, matemática, recursos gerais e vários outros. Seu desempenho impressionante está no mesmo nível de modelos de primeira linha como DeepSeek-R1, o1, o3-mini, Grok-3 e Gemini-2.5-Pro.

Desempenho comparativo do novo Qwen3 (fonte).
A série Qwen3 conta com dois modelos com arquitetura MoE (Multi-Task Efficient) liberados com os pesos abertos. Um deles é o próprio Qwen3-235B-A22B, um modelo grande com 235 bilhões de parâmetros totais e 22 bilhões de parâmetros ativos. O outro é o Qwen3-30B-A3B, um modelo MoE menor com 30 bilhões de parâmetros totais e 3 bilhões de parâmetros ativos.
Além desses modelos MoE, seis modelos densos também foram liberados sob a licença Apache 2.0: Qwen3-32B, Qwen3-14B, Qwen3-8B, Qwen3-4B, Qwen3-1.7B e Qwen3-0.6B.

Os modelos da família Qwen3 (fonte).
Onde encontrar
Os modelos estão disponíveis em plataformas tradicionais de IA como Hugging Face, ModelScope, Kaggle e, para uso local, através de ferramentas como Ollama.
Modos de pensamento híbridos
Entre os destaques dos novos modelos Qwen3 estão seus recursos híbridos. Eles permitem que os usuários controlem seu fluxo de pensamento, oferecendo suporte para dois modos:
Modo com raciocínio: neste modo, ideal para problemas complexos, o modelo deve raciocinar passo a passo antes de gerar sua resposta final.
Modo sem raciocínio: nesta versão, o modelo fornece respostas rápidas. Este modo é adequado para perguntas mais simples e situações nas quais a velocidade é mais importante do que a profundidade.
A presença destes dois modos aumenta significativamente a flexibilidade dos novos modelos, permitindo que os usuários controlem quanto pensamento eles devem executar com base na tarefa em questão. Além disso, a integração desses dois modos aumenta muito a capacidade de desenvolvedores implementarem um controle orçamentário mais estável e eficiente.
Suporte multilíngue
Os modelos Qwen3 dominam um número impressionante de línguas. No total, são 119 idiomas e dialetos. Veja a lista abaixo.

Recursos agenciais
Os modelos Qwen3 são totalmente otimizados para codificação e recursos agenciais. O Qwen3 se destaca particularmente nos recursos de chamada de ferramentas. Para facilitar ainda mais sua interação com agentes, ele também possui suporte ao MCP, um protocolo que fornece uma maneira padronizada de conectar modelos de IA a diferentes fontes de dados e ferramentas.
A chave para bom desempenho: treinamento e arquitetura
Para atingir seu bom desempenho, a série Qwen3 foi treinada com um conjunto de dados significativamente expandido em comparação a série Qwen2.5. Especificamente, o Qwen3 foi pré-treinado com aproximadamente 36 trilhões de tokens cobrindo 119 idiomas e dialetos. A Alibaba Cloud conseguiu montar esse conjunto de dados combinando dados da web e documentos. O poderoso Qwen2.5-VL (um modelo multimodal) foi utilizado para extrair os textos dos documentos e o Qwen2.5 para melhorar a qualidade do conteúdo extraído. Os modelos Qwen2.5-Math e Qwen2.5-Coder foram utilizados para gerar dados sintéticos de matemática e de código.
O aumento do conjunto de dados de treinamento aliado aos avanços na arquitetura dos modelos permitiu que o desempenho geral dos modelos de base densa Qwen3 correspondam ao dos modelos básicos Qwen2.5 com mais parâmetros.
Especificamente para desenvolver o modo híbrido capaz de raciocínio passo a passo e respostas rápidas, o pessoal da Alibaba Cloud utilizou um pipeline de treinamento de quatro estágios. Este pipeline inclui: (1) inicialização a frio de cadeia de pensamento longa (CoT), (2) aprendizado por reforço baseado em raciocínio (RL), (3) fusão de modo de pensamento e (4) RL geral.
Conclusão
Qwen3 representa mais um marco significativo para a comunidade de IA. Para os desenvolvedores, ele representa mais uma opção muito atraente para a criação de aplicativos inteligentes. Com seus recursos híbridos e agenciais, suporte multilíngue e diversos tamanhos, certamente você encontrará entre os modelos disponíveis o ideal para seus projetos.