Search
Close this search box.
Qwen3: LLMs com controle híbrido de pensamento
Qwen3

Posts Relacionados:

Qwen3 estreia com vários modelos de pesos abertos e licença permissiva. A novidade conta ainda com controle de modo de pensamento, suporte para 119 línguas e recursos agênticos.

Receba nossa newsletter

Notícias empolgantes para a comunidade de IA! A nova família de modelos grandes de linguagem (LLMs) Qwen3 já é realidade. Esta última adição à série de modelos Qwen apresenta desempenho, flexibilidade e acessibilidade impressionantes. Certamente, essas características a tornam uma ferramenta muito interessante para pesquisadores e desenvolvedores.

Qwen3

Qwen3: pesos abertos e licença permissiva

Como já é tradicional para o pessoal da Alibaba Cloud, desenvolvedora da série Qwen, os modelos Qwen3 vêm em vários formatos e tamanhos. O modelo principal da série, Qwen3-235B-A22B, alcança resultados competitivos em avaliações de benchmark em uma variedade de domínios. Eles incluem codificação, matemática, recursos gerais e vários outros. Seu desempenho impressionante está no mesmo nível de modelos de primeira linha como DeepSeek-R1, o1, o3-mini, Grok-3 e Gemini-2.5-Pro.

Qwen3 desempenho

Desempenho comparativo do novo Qwen3 (fonte).

A série Qwen3 conta com dois modelos com arquitetura MoE (Multi-Task Efficient) liberados com os pesos abertos. Um deles é o próprio Qwen3-235B-A22B, um modelo grande com 235 bilhões de parâmetros totais e 22 bilhões de parâmetros ativos. O outro é o Qwen3-30B-A3B, um modelo MoE menor com 30 bilhões de parâmetros totais e 3 bilhões de parâmetros ativos.

Além desses modelos MoE, seis modelos densos também foram liberados sob a licença Apache 2.0: Qwen3-32B, Qwen3-14B, Qwen3-8B, Qwen3-4B, Qwen3-1.7B e Qwen3-0.6B.

models Qwen3

Os modelos da família Qwen3 (fonte).

Onde encontrar

Os modelos estão disponíveis em plataformas tradicionais de IA como Hugging Face, ModelScope, Kaggle e, para uso local, através de ferramentas como Ollama.

Modos de pensamento híbridos

Entre os destaques dos novos modelos Qwen3 estão seus recursos híbridos. Eles permitem que os usuários controlem seu fluxo de pensamento, oferecendo suporte para dois modos:

Modo com raciocínio: neste modo, ideal para problemas complexos, o modelo deve raciocinar passo a passo antes de gerar sua resposta final.

Modo sem raciocínio: nesta versão, o modelo fornece respostas rápidas. Este modo é adequado para perguntas mais simples e situações nas quais a velocidade é mais importante do que a profundidade.

A presença destes dois modos aumenta significativamente a flexibilidade dos novos modelos, permitindo que os usuários controlem quanto pensamento eles devem executar com base na tarefa em questão. Além disso, a integração desses dois modos aumenta muito a capacidade de desenvolvedores implementarem um controle orçamentário mais estável e eficiente.

Suporte multilíngue

Os modelos Qwen3 dominam um número impressionante de línguas. No total, são 119 idiomas e dialetos. Veja a lista abaixo.

Qwen3 multilingual

Recursos agenciais

Os modelos Qwen3 são totalmente otimizados para codificação e recursos agenciais. O Qwen3 se destaca particularmente nos recursos de chamada de ferramentas. Para facilitar ainda mais sua interação com agentes, ele também possui suporte ao MCP, um protocolo que fornece uma maneira padronizada de conectar modelos de IA a diferentes fontes de dados e ferramentas.

A chave para bom desempenho: treinamento e arquitetura

Para atingir seu bom desempenho, a série Qwen3 foi treinada com um conjunto de dados significativamente expandido em comparação a série Qwen2.5. Especificamente, o Qwen3 foi pré-treinado com aproximadamente 36 trilhões de tokens cobrindo 119 idiomas e dialetos. A Alibaba Cloud conseguiu montar esse conjunto de dados combinando dados da web e documentos. O poderoso Qwen2.5-VL (um modelo multimodal) foi utilizado para extrair os textos dos documentos e o Qwen2.5 para melhorar a qualidade do conteúdo extraído. Os modelos Qwen2.5-Math e Qwen2.5-Coder foram utilizados para gerar dados sintéticos de matemática e de código.

O aumento do conjunto de dados de treinamento aliado aos avanços na arquitetura dos modelos permitiu que o desempenho geral dos modelos de base densa Qwen3 correspondam ao dos modelos básicos Qwen2.5 com mais parâmetros.

Especificamente para desenvolver o modo híbrido capaz de raciocínio passo a passo e respostas rápidas, o pessoal da Alibaba Cloud utilizou um pipeline de treinamento de quatro estágios. Este pipeline inclui: (1) inicialização a frio de cadeia de pensamento longa (CoT), (2) aprendizado por reforço baseado em raciocínio (RL), (3) fusão de modo de pensamento e (4) RL geral.

Conclusão

Qwen3 representa mais um marco significativo para a comunidade de IA. Para os desenvolvedores, ele representa mais uma opção muito atraente para a criação de aplicativos inteligentes. Com seus recursos híbridos e agenciais, suporte multilíngue e diversos tamanhos, certamente você encontrará entre os modelos disponíveis o ideal para seus projetos.

Imagem com IA Generativa – Dia 415

IA generativa - img415

Arte com IA generativa: imagem do dia

Todos os dias postamos um exemplo de imagem artística gerada com inteligência artificial.

Tutoriais

Postagens Mais Recentes

Outras Postagens Que Podem Interessar

Veja
Mais

Fique em contato

Se inscreva para receber nossa newsletter com novidades.

aprendiz artificial