Qwen3: nova super IA

Qwen3 é a nova série de modelos de IA da Alibaba Cloud. Com modelos disponíveis em diferentes tamanhos e com versões de arquiteturas densa e esparsa, a novidade surpreende por sua versatilidade e excelente desempenho mesmo nas versões pequenas.
Os modelos foram desenvolvidos com modo híbrido de raciocínio, dominam impressionantes 119 línguas e foram totalmente projetados para interagir facilmente com agentes. Para testar a novidade, nada melhor do que usá-las localmente com todo conforto e privacidade. Para esse post, usaremos Qwen3 somente com Ollama e depois com Ollama e Python.
Pacote necessário

Garanta que você possui o pacote Ollama instalado para seu sistema operacional. Se você já possui Ollama instalado, certifique-se de que sua versão é atual (ollama –version). Caso contrário, faça upgrade para a versão mais recente.
Para testar sua instalação, digite diretamente no terminal:
ollama --version
Se tudo correu bem com a instalação, você verá a versão do Ollama em seu sistema ser impressa.
Rodando qwen3 com Ollama
Com Ollama instalado, você pode executar o Qwen3 localmente com facilidade. Veja o comando abaixo:
ollama run qwen3
Se você o digitar no terminal, ele iniciará o qwen3-8b, ou seja, o modelo denso de 8 bilhões de parâmetros. Se preferir usar outras versões, basta mudar o nome para versão desejada (veja nesse link). Por exemplo, o comando abaixo executa o menor modelo da série, com 0.6 bilhões de parâmetros:
ollama run qwen3:0.6b
Ao executar o comando no terminal, ele faz primeiro o download do modelo. Depois, você só precisa digitar seus prompts para interagir com o modelo diretamente no terminal.
testando o modelo de 0.6B
Qwen3 impressiona mesmo em sua versão pequena. Veja a resposta que ele deu ao nosso prompt (Explique o que significa a palavra Qwen):
>>> Explique o que significa a palavra Qwen.
Okay, the user is asking about what "Qwen" means. First, I need to recall
the information I have. Qwen is the Chinese version of the Qwen model,
which is a large language model developed by Alibaba Group. It's part of
the Qwen series. I should explain the key points: the model's purpose, its
development, and its current status. Also, mention that it's a
high-quality language model and that it's used in various fields like AI
research and development. Make sure the explanation is clear and concise.
A palavra **Qwen** refere-se ao modelo de linguagem natural desenvolvido
pela Alibaba Group (China) sob o nome **Qwen**. Este é um dos modelos de
linguagem de alta capacidade, criado como parte do programa de
desenvolvimento de **Qwen**, que é uma sequência de modelos de linguagem
baseados em machine learning.
### Principais pontos:
1. **Objetivo**: Qwen é projetado para capacitar sistemas criptográficos e
inteligências de alto nível, como em áreas de segurança, análise de dados
e automação.
2. **Desenvolvimento**: Qwen é um dos primeiros modelos de linguagem
criptográfica do setor, desenvolvido pela Alibaba Group e lançado em 2023.
3. **Funcionalidades**: Ele oferece serviços de inteligência artificial
para a tomada de decisão, análise de dados e assistência em problemas
complexos.
4. **Status**: Qwen é um modelo de linguagem com capacidade de entender e
produzir texto, sendo aplicado em diversos setores.
Qwen é considerado um dos primeiros modelos de linguagem criptográfica,
destacando-se por sua capacidade de gerar texto e resolver problemas
complexos com base em conhecimento humano e machine learning.
Note que o modelo pensa, em inglês, antes de responder, mas responde com bom português. A resposta é bastante acurada, o que já demonstra o potencial da família Qwen3. Mesmo o menor modelo da série apresenta excelente comportamento no estado em que foi liberado, ou seja, sem nenhum ajuste fino.
Como mudar o modo de raciocinio
Qwen3 vem com controle de modo de raciocínio. Isso significa que é possível solicitar explicitamente para ele raciocinar passo a passo antes de fornecer uma resposta, como mostrado no início da resposta acima, ou responder sem essa etapa. A vantagem do raciocínio passo a passo é a obtenção de respostas mais aprofundadas. Já o segundo caso garante velocidade. Para mudar de um modo para outro, basta adicionar /think (com raciocínio) ou /no_think (sem raciocínio) no final do prompt. No exemplo abaixo, a opção foi pelo modelo com raciocínio passo a passo:
Explique como desenvolver algoritmos de computador. \think
Qwen3 com Python e Ollama

Qwen3 também pode ser executado através de códigos Python com Ollama. Neste caso, é preciso installar o pacote Ollama para Python:
pip install ollama
Você também precisará baixar o modelo que deseja digitando no terminal o seguinte comando:
ollama pull qwen3:4b
No exemplo acima, baixamos o modelo de 4 bilhões de parâmetros. Para mudar a versão do modelo, basta alterar o nome para a versão que deseja (veja lista aqui). Cuidado para não baixar modelos muito grandes que não são adequados para rodar localmente!
Depois de baixar o modelo, num código Python, importe o pacote Ollama e inicie um cliente:
import ollama
# inicia o cliente Ollama
client = ollama.Client()
Em seguida, defina seu prompt com um contexto e uma pergunta ou instrução.
# prompt
context = """Aja como um especialista em marketing que cria campanhas virais."""
question = "Crie uma campanha de marketing para meu curso presencial de yoga para gatos."
prompt = f"Context: {context}\n\nQuestion: {question} \think"
Por fim, alimente o modelo com seu prompt e execute o código no terminal como você faz normalmente com um código Python regular.
# alimenta modelo com prompt
response = client.generate(model="qwen3:4b", prompt=prompt)
print("Resposta do Qwen3:", response['response'])
Depois é só esperar a geração da resposta 🐾.