Bem-vindo ao Floopy Docs
O Floopy é uma AI Agent Optimization Platform. Inclui um AI gateway que fica entre sua aplicação e os provedores de LLM e adiciona roteamento guiado por feedback — combinando NPS de sessão do usuário final, avaliação por LLM-as-judge, notas manuais de admins e benchmarks públicos para rotear cada requisição continuamente ao modelo mais custo-efetivo que mantém a qualidade. Cache, segurança e observabilidade vêm no mesmo pacote — tudo sem alterar o código da sua aplicação além de uma única linha.
Início Rápido
Aponte seu SDK OpenAI para o Floopy e pronto:
import { OpenAI } from "openai";
const client = new OpenAI({ baseURL: "https://api.floopy.ai/v1", apiKey: process.env.FLOOPY_API_KEY,});
const response = await client.chat.completions.create({ model: "gpt-4o", messages: [{ role: "user", content: "Hello!" }],});Nenhum SDK para instalar. Funciona com qualquer linguagem que suporte o formato da API OpenAI.
Guias
Primeiros Passos Configure o Floopy em menos de 5 minutos.
Integração Conecte seu app com Node.js, Python ou curl.
API Keys Crie e gerencie API keys do gateway.
Providers Adicione as API keys dos seus provedores de LLM.
Routing Configure roteamento fallback, round-robin, weighted e latency-based.
Referência de Headers Lista completa de todos os headers de requisição e resposta.
Referência da API Schema do endpoint, formatos de request/response, códigos de erro.
Segurança Como o Floopy protege seus dados, chaves e tráfego LLM.
Benchmarks Números reais de performance em 7 cenários.
Troubleshooting Erros comuns, dicas de debug e FAQ.
Features
Cache Três camadas de cache inteligente para reduzir custo e latência.
LLM Firewall Bloqueie prompt injection e conteúdo inseguro.
Smart Selector Otimização multi-armed bandit para seleção automática de modelo.
Streaming Streaming SSE em tempo real pelo gateway.
Fallbacks Failover automático de provider para alta disponibilidade.
Observabilidade Logs, sessões, propriedades e tracing distribuído.
Rate Limiting Limites por organização, por chave e por requisição.
Gerenciamento de Prompts Prompts versionados com variáveis e feedback.
Testes A/B Divida tráfego entre variantes de modelo e prompt.
Experimentos Avalie qualidade de LLM com datasets e scoring.
Datasets Datasets de teste para experimentos e testes A/B.
Playground Teste prompts diretamente no dashboard.
Billing
Planos Free, Starter, Pro e Enterprise.
Créditos Como funcionam os créditos, compra e overage billing.
Orçamentos por Equipe Defina limites de gasto por equipe.
Providers Suportados
O Floopy traduz as requisições para o formato correto automaticamente. Basta mudar o nome do modelo:
| Provider | Modelos de Exemplo |
|---|---|
| OpenAI | gpt-4o, gpt-4o-mini, o1, o3-mini |
| Anthropic | claude-sonnet-4-20250514, claude-3-5-haiku-20241022 |
| Google Gemini | gemini-2.5-pro, gemini-2.0-flash |
| Groq | llama-3.3-70b-versatile, mixtral-8x7b-32768 |
| Mistral | mistral-large-latest, mistral-small-latest |
| DeepSeek | deepseek-chat, deepseek-reasoner |
Precisa de Ajuda?
- Dashboard — gerencie sua organização, chaves e configurações
- Status Page — verifique a saúde do gateway
- GitHub — reporte problemas e sugira funcionalidades