Pular para o conteúdo

Nebius

Visao Geral

O Nebius AI Studio e um provedor de inferencia que oferece um conjunto curado de modelos open-source com precos competitivos e tiers opcionais de inferencia rapida. O Floopy encaminha requisicoes para a API compativel com OpenAI do Nebius.

Modelos Suportados

ModeloJanela de ContextoNotas
deepseek-ai/DeepSeek-R1-0528128KDeepSeek R1 modelo de raciocinio
deepseek-ai/DeepSeek-V3-0324128KDeepSeek V3
Qwen/Qwen3-Coder-480B-A35B-Instruct128KQwen 3 Coder flagship
Qwen/Qwen3-235B-A22B-Thinking-2507128KQwen 3 modelo de raciocinio
Qwen/Qwen3-32B128KQwen 3 32B
meta-llama/Llama-3.3-70B-Instruct128KLlama 3.3 70B
meta-llama/Llama-3.1-405B-Instruct128KLlama 3.1 405B

Configuracao

  1. Va para Settings > Providers no dashboard.
  2. Clique em Add provider e selecione Nebius.
  3. Cole sua API key do Nebius e clique em Save.

Uso

import OpenAI from "openai";
const client = new OpenAI({
baseURL: "https://api.floopy.ai/v1",
apiKey: process.env.FLOOPY_API_KEY,
});
const response = await client.chat.completions.create({
model: "Qwen/Qwen3-32B",
messages: [{ role: "user", content: "Explique computacao quantica." }],
});

Recursos Especificos

  • Tiers de inferencia rapida — Alguns modelos oferecem um tier “fast” com custo maior para menor latencia.
  • Inferencia em lote — Processamento em lote com 50% de desconto sobre o preco em tempo real.
  • Nomenclatura — Modelos usam o formato Org/Nome-Modelo (ex.: Qwen/Qwen3-32B).