Search
Close this search box.
Aprenda a executar a super IA Qwen3 localmente
Qwen3

Posts Relacionados:

Aprenda a rodar a novíssima IA Qwen3 localmente, e explore seus modos híbridos de raciocínio com toda a privacidade, conforto e segurança.

Receba nossa newsletter

Qwen3: nova super IA

Qwen3

Qwen3 é a nova série de modelos de IA da Alibaba Cloud. Com modelos disponíveis em diferentes tamanhos e com versões de arquiteturas densa e esparsa, a novidade surpreende por sua versatilidade e excelente desempenho mesmo nas versões pequenas.

Os modelos foram desenvolvidos com modo híbrido de raciocínio, dominam impressionantes 119 línguas e foram totalmente projetados para interagir facilmente com agentes. Para testar a novidade, nada melhor do que usá-las localmente com todo conforto e privacidade. Para esse post, usaremos Qwen3 somente com Ollama e depois com Ollama e Python.

Pacote necessário

ollama

Garanta que você possui o pacote Ollama instalado para seu sistema operacional. Se você já possui Ollama instalado, certifique-se de que sua versão é atual (ollama –version). Caso contrário, faça upgrade para a versão mais recente.

Para testar sua instalação, digite diretamente no terminal:

				
					ollama --version
				
			

Se tudo correu bem com a instalação, você verá a versão do Ollama em seu sistema ser impressa.

Rodando qwen3 com Ollama

Com Ollama instalado, você pode executar o Qwen3 localmente com facilidade. Veja o comando abaixo:

				
					ollama run qwen3
				
			

Se você o digitar no terminal, ele iniciará o qwen3-8b, ou seja, o modelo denso de 8 bilhões de parâmetros. Se preferir usar outras versões, basta mudar o nome para versão desejada (veja nesse link). Por exemplo, o comando abaixo executa o menor modelo da série, com 0.6 bilhões de parâmetros:

				
					ollama run qwen3:0.6b
				
			

Ao executar o comando no terminal, ele faz primeiro o download do modelo. Depois, você só precisa digitar seus prompts para interagir com o modelo diretamente no terminal.

testando o modelo de 0.6B

Qwen3 impressiona mesmo em sua versão pequena. Veja a resposta que ele deu ao nosso prompt (Explique o que significa a palavra Qwen):

				
					>>> Explique o que significa a palavra Qwen.
<think>
Okay, the user is asking about what "Qwen" means. First, I need to recall 
the information I have. Qwen is the Chinese version of the Qwen model, 
which is a large language model developed by Alibaba Group. It's part of 
the Qwen series. I should explain the key points: the model's purpose, its 
development, and its current status. Also, mention that it's a 
high-quality language model and that it's used in various fields like AI 
research and development. Make sure the explanation is clear and concise.
</think>

A palavra **Qwen** refere-se ao modelo de linguagem natural desenvolvido 
pela Alibaba Group (China) sob o nome **Qwen**. Este é um dos modelos de 
linguagem de alta capacidade, criado como parte do programa de 
desenvolvimento de **Qwen**, que é uma sequência de modelos de linguagem 
baseados em machine learning.

### Principais pontos:
1. **Objetivo**: Qwen é projetado para capacitar sistemas criptográficos e 
inteligências de alto nível, como em áreas de segurança, análise de dados 
e automação.
2. **Desenvolvimento**: Qwen é um dos primeiros modelos de linguagem 
criptográfica do setor, desenvolvido pela Alibaba Group e lançado em 2023.
3. **Funcionalidades**: Ele oferece serviços de inteligência artificial 
para a tomada de decisão, análise de dados e assistência em problemas 
complexos.
4. **Status**: Qwen é um modelo de linguagem com capacidade de entender e 
produzir texto, sendo aplicado em diversos setores.

Qwen é considerado um dos primeiros modelos de linguagem criptográfica, 
destacando-se por sua capacidade de gerar texto e resolver problemas 
complexos com base em conhecimento humano e machine learning.
				
			

Note que o modelo pensa, em inglês, antes de responder, mas responde com bom português. A resposta é bastante acurada, o que já demonstra o potencial da família Qwen3. Mesmo o menor modelo da série apresenta excelente comportamento no estado em que foi liberado, ou seja, sem nenhum ajuste fino.

Como mudar o modo de raciocinio

Qwen3 vem com controle de modo de raciocínio. Isso significa que é possível solicitar explicitamente para ele raciocinar passo a passo antes de fornecer uma resposta, como mostrado no início da resposta acima, ou responder sem essa etapa. A vantagem do raciocínio passo a passo é a obtenção de respostas mais aprofundadas. Já o segundo caso garante velocidade. Para mudar de um modo para outro, basta adicionar /think (com raciocínio) ou /no_think (sem raciocínio) no final do prompt. No exemplo abaixo, a opção foi pelo modelo com raciocínio passo a passo:

				
					Explique como desenvolver algoritmos de computador. \think
				
			

Qwen3 com Python e Ollama

python logo

Qwen3 também pode ser executado através de códigos Python com Ollama. Neste caso, é preciso installar o pacote Ollama para Python:

				
					pip install ollama
				
			

Você também precisará baixar o modelo que deseja digitando no terminal o seguinte comando:

				
					ollama pull qwen3:4b
				
			

No exemplo acima, baixamos o modelo de 4 bilhões de parâmetros. Para mudar a versão do modelo, basta alterar o nome para a versão que deseja (veja lista aqui). Cuidado para não baixar modelos muito grandes que não são adequados para rodar localmente!

Depois de baixar o modelo, num código Python, importe o pacote Ollama e inicie um cliente:

				
					import ollama

# inicia o cliente Ollama
client = ollama.Client()

				
			

Em seguida, defina seu prompt com um contexto e uma pergunta ou instrução.

				
					# prompt
context = """Aja como um especialista em marketing que cria campanhas virais."""
question = "Crie uma campanha de marketing para meu curso presencial de yoga para gatos."
prompt = f"Context: {context}\n\nQuestion: {question} \think"

				
			

Por fim, alimente o modelo com seu prompt e execute o código no terminal como você faz normalmente com um código Python regular.

				
					# alimenta modelo com prompt
response = client.generate(model="qwen3:4b", prompt=prompt)

print("Resposta do Qwen3:", response['response'])

				
			

Depois é só esperar a geração da resposta 🐾.

Imagem com IA Generativa – Dia 468

IA generativa - img468

Arte com IA generativa: imagem do dia

Todos os dias postamos um exemplo de imagem artística gerada com inteligência artificial.

Tutoriais

Postagens Mais Recentes

Outras Postagens Que Podem Interessar

Veja
Mais

Fique em contato

Se inscreva para receber nossa newsletter com novidades.

aprendiz artificial