Qwen 3 32B

Model Information

Display Name: Qwen 3 32B

API Model ID: qwen/qwen3-32b

Category: Text To Text

Description: Qwen 3 32B é um modelo denso de alta performance com excelente custo-benefício. Ideal para produção com baixa latência. **Key Features:** - 128K token context window - Modelo denso (32B parâmetros) - Baixa latência de inferência - Function calling e tool use - Excelente em Português - Structured outputs (JSON) **Capabilities:** - Conversação natural - Análise de texto - Geração de conteúdo - Code assistance - Summarização - Q&A **Best For:** - Aplicações de produção com baixa latência - Chatbots e assistentes - Tarefas de uso geral - Quando custo e velocidade importam **Technical Specs:** - Parameters: 32B (dense) - Context: 128K tokens - License: Apache 2.0 (Open Source)

Context Window: 131,072 tokens

Max Output: 8,192 tokens

How to Use This Model

To use Qwen 3 32B via the HInow.ai API, use the model ID: qwen/qwen3-32b

API Request Example (Chat/Text)


POST https://api.hinow.ai/v1/chat/completions
Authorization: Bearer YOUR_API_KEY
Content-Type: application/json

{
  "model": "qwen/qwen3-32b",
  "messages": [
    {"role": "user", "content": "Your message here"}
  ]
}
              

Pricing

  • input: $0.216
  • output: $0.432

Available Parameters

  • temperature: Controls randomness (0-2). Default: 0.7 (Options: 0, 0.3, 0.5, 0.7, 1.0, 1.5, 2.0)
  • top_p: Nucleus sampling (0-1). Default: 0.9 (Options: 0.1, 0.5, 0.7, 0.9, 0.95, 1.0)
  • max_tokens: Max tokens to generate (1-8192) (Options: 256, 512, 1024, 2048, 4096, 8192)
  • repetition_penalty: Reduce repetition (0.01-5). Default: 1 (Options: 1.0, 1.1, 1.2, 1.5, 2.0)
  • response_format: Output format (Options: text, json_object)

Quick Reference

To use this model, set: "model": "qwen/qwen3-32b"

Featured: No

Documentation: https://hinow.ai/models/qwen/qwen3-32b

API Endpoint: https://api.hinow.ai/v1

Back to Models

Qwen 3 32B

qwen/qwen3-32b

$0.216 / $0.432
per 1M tokens (in/out)

About

Qwen 3 32B é um modelo denso de alta performance com excelente custo-benefício. Ideal para produção com baixa latência.

Key Features:

  • 128K token context window
  • Modelo denso (32B parâmetros)
  • Baixa latência de inferência
  • Function calling e tool use
  • Excelente em Português
  • Structured outputs (JSON)

Capabilities:

  • Conversação natural
  • Análise de texto
  • Geração de conteúdo
  • Code assistance
  • Summarização
  • Q&A

Best For:

  • Aplicações de produção com baixa latência
  • Chatbots e assistentes
  • Tarefas de uso geral
  • Quando custo e velocidade importam

Technical Specs:

  • Parameters: 32B (dense)
  • Context: 128K tokens
  • License: Apache 2.0 (Open Source)

Capabilities

Text To Text
Context131K tokens
Max Output8K tokens

Parameters

temperature

Controls randomness (0-2). Default: 0.7

00.30.50.71.01.52.0
top_p

Nucleus sampling (0-1). Default: 0.9

0.10.50.70.90.951.0
max_tokens

Max tokens to generate (1-8192)

2565121024204840968192
repetition_penalty

Reduce repetition (0.01-5). Default: 1

1.01.11.21.52.0
response_format

Output format

textjson_object

Code Examples

curl -X POST https://api.hinow.ai/v1/responses \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $HINOW_API_KEY" \
  -d '{
    "model": "qwen/qwen3-32b",
    "messages": [
      {"role": "user", "content": "Hello! How are you?"}
    ],
    "parameters": {
      "temperature": "0",
      "top_p": "0.1",
      "max_tokens": "256",
      "repetition_penalty": "1.0",
      "response_format": "text"
    }
  }'