OpenAI
Visao Geral
A OpenAI fornece a serie GPT de large language models, incluindo o GPT-4o e as familias de raciocinio o1/o3. O Floopy faz proxy de requisicoes para a API de Chat Completions da OpenAI nativamente, sem necessidade de traducao de formato.
Modelos Suportados
| Model | Context Window | Notes |
|---|---|---|
o3-pro | 200K | Modelo de raciocinio, suporta header reasoning_effort |
o3 | 200K | Modelo de raciocinio, suporta header reasoning_effort |
o3-mini | 200K | Modelo de raciocinio, suporta header reasoning_effort |
o1-pro | 200K | Modelo de raciocinio, suporta header reasoning_effort |
o1 | 200K | Modelo de raciocinio, suporta header reasoning_effort |
o1-mini | 128K | Modelo de raciocinio, suporta header reasoning_effort |
gpt-4.5-preview | 128K | Modelo preview mais recente |
gpt-4o | 128K | Modelo multimodal principal |
gpt-4o-mini | 128K | Rapido e acessivel |
gpt-4-turbo | 128K | Turbo da geracao anterior |
gpt-4 | 8K | GPT-4 original |
gpt-3.5-turbo | 16K | Legado, custo-beneficio |
Configuracao
- Acesse Settings > Providers no dashboard.
- Clique em Add provider e selecione OpenAI.
- Cole sua chave de API da OpenAI e clique em Save.
Uso
import OpenAI from "openai";
const client = new OpenAI({ baseURL: "https://api.floopy.ai/v1", apiKey: process.env.FLOOPY_API_KEY,});
const response = await client.chat.completions.create({ model: "gpt-4o", messages: [{ role: "user", content: "Explain quantum computing." }],});from openai import OpenAI
client = OpenAI(base_url="https://api.floopy.ai/v1", api_key=os.environ["FLOOPY_API_KEY"])
response = client.chat.completions.create( model="gpt-4o", messages=[{"role": "user", "content": "Explain quantum computing."}],)curl https://api.floopy.ai/v1/chat/completions \ -H "Authorization: Bearer $FLOOPY_API_KEY" \ -H "Content-Type: application/json" \ -d '{"model": "gpt-4o", "messages": [{"role": "user", "content": "Explain quantum computing."}]}'Funcionalidades Especificas do Provider
- Reasoning effort — Defina o header
x-floopy-reasoning-effortcomolow,mediumouhighao usar modelos o1/o3 para controlar o quanto de raciocinio o modelo realiza. - Modelos fine-tuned — Use o prefixo
ft:no nome do modelo (ex:ft:gpt-4o-mini:my-org:my-model:abc123) para direcionar para seus modelos fine-tuned.
Fallback
Direcione para a Anthropic caso a OpenAI esteja indisponivel configurando o header de fallback:
curl https://api.floopy.ai/v1/chat/completions \ -H "Authorization: Bearer $FLOOPY_API_KEY" \ -H "x-floopy-fallback-provider: anthropic" \ -H "x-floopy-fallback-model: claude-sonnet-4-6" \ -H "Content-Type: application/json" \ -d '{"model": "gpt-4o", "messages": [{"role": "user", "content": "Hello"}]}'