Playground
Visão Geral
O Playground permite enviar prompts para qualquer modelo configurado e ver a resposta em tempo real, tudo dentro do dashboard do Floopy. É a maneira mais rápida de testar um prompt, comparar o comportamento de modelos ou depurar uma saída inesperada sem escrever nenhum código.
Usando o Playground
- Abra o Playground na barra lateral do dashboard.
- Selecione um modelo e provedor nos dropdowns. Apenas modelos e provedores configurados na sua organização estão disponíveis.
- Escreva seu prompt na área de entrada. Você pode definir uma mensagem de sistema e uma ou mais mensagens de usuário.
- Clique em Run para enviar a requisição.
A resposta aparece no painel de saída junto com metadados: uso de tokens, latência e custo.
Parâmetros do Modelo
Você pode ajustar os parâmetros do modelo antes de executar um prompt:
- Temperature (0—2) — Controla a aleatoriedade. Valores mais baixos produzem saídas mais determinísticas; valores mais altos aumentam a criatividade e variação.
- Max Tokens — Número máximo de tokens que o modelo pode gerar na resposta.
- Top P (0—1) — Limite de amostragem por núcleo (nucleus sampling). O modelo considera apenas tokens cuja massa de probabilidade acumulada atinge este limite.
- Frequency Penalty (-2 a 2) — Reduz repetição penalizando tokens que já apareceram. Valores positivos diminuem a repetição; valores negativos a incentivam.
- Presence Penalty (-2 a 2) — Incentiva o modelo a falar sobre novos tópicos penalizando tokens que apareceram, independentemente da frequência.
- Stop Sequences — Strings separadas por vírgula que fazem o modelo parar de gerar quando encontradas.
- Reasoning Effort — Controla quanto processamento o modelo dedica ao raciocínio antes de responder. Opções: None, Minimal, Low, Medium, High.
- Response Format — O formato da resposta do modelo: texto simples ou modo JSON. O modo JSON restringe a saída a JSON válido.
Esses parâmetros são definidos por requisição e não afetam sua configuração de produção.
Conversas Multi-Turno
O Playground suporta conversas multi-turno. Após receber uma resposta, adicione outra mensagem de usuário para continuar a conversa. O histórico completo de mensagens é enviado com cada requisição, para que o modelo tenha contexto dos turnos anteriores.
Clique em Clear para resetar a conversa e começar do zero.
Uso de Créditos
As requisições do Playground usam os créditos da sua organização, assim como as chamadas de API em produção. O uso de tokens e custo são exibidos após cada resposta para que você possa acompanhar os gastos durante os testes.
Respostas em cache no Playground são gratuitas, assim como em produção.
Casos de Uso Comuns
- Iteração de prompt — teste rapidamente diferentes formulações e veja como o modelo responde.
- Comparação de modelos — alterne entre modelos para comparar qualidade de saída, velocidade e custo para o mesmo prompt.
- Depuração — reproduza um problema de produção reenviando o mesmo prompt e parâmetros.
- Onboarding — permita que novos membros da equipe explorem os modelos disponíveis sem configurar um ambiente de desenvolvimento.
Dicas
- Use o Playground para testar prompts antes de salvá-los no Gerenciamento de Prompts. Isso evita criar versões desnecessárias.
- Se uma resposta parecer errada, verifique os parâmetros do modelo. Temperature e max tokens têm um impacto significativo na qualidade da saída.
- Copie a resposta diretamente do painel de saída para compartilhar com colegas.