Portkey
O Portkey é um AI gateway sólido com gerenciamento de prompts, observabilidade e roteamento de requisições — amplamente usado por equipes que precisam de acesso unificado a LLMs e rastreio de custos. O Floopy inclui essas capacidades de gateway, mas o produto é a otimização contínua de agentes: propagação de feedback em nível de sessão e pesos dinâmicos multi-fonte decidem qual modelo atende cada chamada. Se você precisa de proxy e biblioteca de prompts, o Portkey encaixa; se você quer que o gateway também aprenda com o sinal do usuário final, o Floopy é a escolha.
Helicone
O Helicone é uma camada forte de observabilidade — logs por requisição, cache e APIs de feedback para debug e coleta de dados de fine-tune. O Floopy também registra toda requisição e aceita pontuações, mas a unidade de aprendizado é diferente: um NPS por sessão propagado a cada decisão de roteamento naquela sessão, em vez de likes por resposta. Se o objetivo é dados de debug por requisição, o Helicone funciona bem; se o objetivo é roteamento em nível de sessão que melhora contra resultados do usuário final, o Floopy é feito para isso.
LiteLLM
O LiteLLM é um excelente proxy open-source para unificar chamadas de SDK multi-provedor com regras de retry e fallback — encaixe natural se você roda sua própria infraestrutura e quer apenas roteamento estático. O Floopy é SaaS gerenciado e vai além: o roteador aprende com NPS de sessão, pontuação LLM-as-judge, avaliações manuais e benchmarks públicos, com pesos que mudam à medida que o sinal se acumula. Use o LiteLLM quando quiser a ergonomia de um proxy auto-hospedado; use o Floopy quando quiser roteamento orientado a feedback sem operar a infraestrutura.
Maxim
O Maxim foca em avaliação, experimentação e teste de prompts — uma ferramenta útil durante o desenvolvimento para comparar saídas de modelo e medir qualidade de prompt offline. O Floopy é um loop de feedback em tempo de produção: o NPS de sessão ao vivo e a pontuação automática re-rankeiam modelos continuamente para que o roteamento melhore depois do deploy, não apenas antes. Maxim e Floopy são complementares — pipelines de avaliação de um lado, otimização em runtime do outro.
Bifrost
O Bifrost é um gateway LLM rápido em Rust focado em proxy de requisições com baixa latência. O Floopy também mantém o overhead de latência baixo (veja a página de benchmarks), mas a diferença central é o que o gateway faz com esse orçamento de latência: o Floopy executa uma decisão de roteamento orientada a feedback por requisição, informada por sinal em nível de sessão, em vez de um proxy puramente estático. Se você precisa do proxy mais fino possível, o Bifrost vence em latência; se você quer um gateway que aprende, o Floopy foi projetado para isso.
TensorZero
O TensorZero foi pioneiro na abordagem open-source de loop de feedback em 2024, com excelente engenharia e arquitetura auto-hospedada. Se sua equipe tem capacidade de DevOps e quer controle total da infraestrutura, é uma escolha sólida. O Floopy segue um caminho diferente: SaaS gerenciado, NPS de sessão do usuário final como sinal primário (em vez de métricas definidas pelo desenvolvedor) e inteligência cross-tenant que melhora o roteamento de cada cliente à medida que a plataforma cresce. Escolha com base em se você quer operar a infraestrutura e em qual fonte de feedback confia mais.