Pular para o conteúdo

DeepInfra

Visao Geral

A DeepInfra e um provedor de inferencia que hospeda um grande catalogo de modelos open-source e comerciais. O Floopy encaminha requisicoes para a API compativel com OpenAI da DeepInfra.

Modelos Suportados

ModeloJanela de ContextoNotas
deepseek-ai/DeepSeek-V3.1128KDeepSeek V3.1
deepseek-ai/DeepSeek-R1-0528-Turbo128KDeepSeek R1 Turbo
Qwen/Qwen3-235B-A22B128KQwen 3 235B MoE
Qwen/Qwen3-32B128KQwen 3 32B
meta-llama/Llama-3.3-70B-Instruct-Turbo128KLlama 3.3 70B Turbo
meta-llama/Llama-4-Maverick-17B-128E-Instruct-FP8128KLlama 4 Maverick
microsoft/phi-4-reasoning-plus16KPhi 4 Reasoning Plus
google/gemma-4-26B-A4B-it128KGemma 4 26B

Configuracao

  1. Va para Settings > Providers no dashboard.
  2. Clique em Add provider e selecione DeepInfra.
  3. Cole sua API key da DeepInfra e clique em Save.

Uso

import OpenAI from "openai";
const client = new OpenAI({
baseURL: "https://api.floopy.ai/v1",
apiKey: process.env.FLOOPY_API_KEY,
});
const response = await client.chat.completions.create({
model: "meta-llama/Llama-3.3-70B-Instruct-Turbo",
messages: [{ role: "user", content: "Explique computacao quantica." }],
});

Recursos Especificos

  • Grande catalogo de modelos — Acesso a 60+ modelos de geracao de texto de DeepSeek, Qwen, Llama, Mistral, Microsoft, Google e outros.
  • Variantes Turbo — Alguns modelos oferecem variantes Turbo otimizadas para inferencia mais rapida.
  • Nomenclatura — Modelos usam o formato org/Nome-Modelo (ex.: meta-llama/Llama-3.3-70B-Instruct-Turbo).