Nebius
Visao Geral
O Nebius AI Studio e um provedor de inferencia que oferece um conjunto curado de modelos open-source com precos competitivos e tiers opcionais de inferencia rapida. O Floopy encaminha requisicoes para a API compativel com OpenAI do Nebius.
Modelos Suportados
| Modelo | Janela de Contexto | Notas |
|---|---|---|
deepseek-ai/DeepSeek-R1-0528 | 128K | DeepSeek R1 modelo de raciocinio |
deepseek-ai/DeepSeek-V3-0324 | 128K | DeepSeek V3 |
Qwen/Qwen3-Coder-480B-A35B-Instruct | 128K | Qwen 3 Coder flagship |
Qwen/Qwen3-235B-A22B-Thinking-2507 | 128K | Qwen 3 modelo de raciocinio |
Qwen/Qwen3-32B | 128K | Qwen 3 32B |
meta-llama/Llama-3.3-70B-Instruct | 128K | Llama 3.3 70B |
meta-llama/Llama-3.1-405B-Instruct | 128K | Llama 3.1 405B |
Configuracao
- Va para Settings > Providers no dashboard.
- Clique em Add provider e selecione Nebius.
- Cole sua API key do Nebius e clique em Save.
Uso
import OpenAI from "openai";
const client = new OpenAI({ baseURL: "https://api.floopy.ai/v1", apiKey: process.env.FLOOPY_API_KEY,});
const response = await client.chat.completions.create({ model: "Qwen/Qwen3-32B", messages: [{ role: "user", content: "Explique computacao quantica." }],});from openai import OpenAI
client = OpenAI(base_url="https://api.floopy.ai/v1", api_key=os.environ["FLOOPY_API_KEY"])
response = client.chat.completions.create( model="Qwen/Qwen3-32B", messages=[{"role": "user", "content": "Explique computacao quantica."}],)curl https://api.floopy.ai/v1/chat/completions \ -H "Authorization: Bearer $FLOOPY_API_KEY" \ -H "Content-Type: application/json" \ -d '{"model": "Qwen/Qwen3-32B", "messages": [{"role": "user", "content": "Explique computacao quantica."}]}'Recursos Especificos
- Tiers de inferencia rapida — Alguns modelos oferecem um tier “fast” com custo maior para menor latencia.
- Inferencia em lote — Processamento em lote com 50% de desconto sobre o preco em tempo real.
- Nomenclatura — Modelos usam o formato
Org/Nome-Modelo(ex.:Qwen/Qwen3-32B).