Pular para o conteúdo

Google Gemini

Visao Geral

O Google Gemini e uma familia de modelos de IA multimodais desenvolvidos pelo Google DeepMind. O Floopy traduz automaticamente requisicoes no formato OpenAI para a API generateContent do Google, permitindo que voce use modelos Gemini com o mesmo codigo que usa para qualquer outro provider.

Modelos Suportados

ModelContext WindowNotes
gemini-2.5-pro1MModelo Gemini mais capaz
gemini-2.5-flash1MRapido e alta qualidade
gemini-2.0-flash1MFlash da geracao anterior
gemini-1.5-pro2MEspecialista em contexto longo
gemini-1.5-flash1MModelo flash legado

Configuracao

  1. Acesse Settings > Providers no dashboard.
  2. Clique em Add provider e selecione Google Gemini.
  3. Cole sua chave de API do Google AI e clique em Save.

Uso

import OpenAI from "openai";
const client = new OpenAI({
baseURL: "https://api.floopy.ai/v1",
apiKey: process.env.FLOOPY_API_KEY,
});
const response = await client.chat.completions.create({
model: "gemini-2.5-flash",
messages: [{ role: "user", content: "Explain quantum computing." }],
});

Funcionalidades Especificas do Provider

  • Traducao automatica de formato — O Floopy converte o formato de chat completion da OpenAI para a API generateContent do Google e vice-versa. System instructions, function calling e conversas multi-turno sao totalmente suportados.
  • Contexto longo — Os modelos Gemini suportam janelas de contexto de ate 2M tokens. O Floopy repassa o contexto completo sem truncamento.

Fallback

Direcione para a OpenAI caso o Gemini esteja indisponivel:

Terminal window
curl https://api.floopy.ai/v1/chat/completions \
-H "Authorization: Bearer $FLOOPY_API_KEY" \
-H "x-floopy-fallback-provider: openai" \
-H "x-floopy-fallback-model: gpt-4o" \
-H "Content-Type: application/json" \
-d '{"model": "gemini-2.5-flash", "messages": [{"role": "user", "content": "Hello"}]}'