Pular para o conteúdo

LangChain (Python)

Visao Geral

O Floopy e um gateway sem SDK. O pacote langchain-openai ja suporta URLs base personalizadas, entao voce pode rotear todas as requisicoes do LangChain pelo Floopy sem dependencias extras. Voce ganha cache, rate limiting, fallbacks e observabilidade de graca.

Instalacao

Terminal window
pip install langchain-openai

Configuracao

from langchain_openai import ChatOpenAI
import os
llm = ChatOpenAI(
base_url="https://api.floopy.ai/v1",
api_key=os.environ["FLOOPY_API_KEY"], # starts with fp_
model="gpt-4o",
)

Defina FLOOPY_API_KEY no seu ambiente. Voce pode criar uma no dashboard.

Requisicao Basica

response = llm.invoke("Explain quantum computing in one sentence.")
print(response.content)

Troque de provedor alterando o nome do modelo:

llm_anthropic = ChatOpenAI(
base_url="https://api.floopy.ai/v1",
api_key=os.environ["FLOOPY_API_KEY"],
model="claude-sonnet-4-20250514",
)
response = llm_anthropic.invoke("Hello!")

Streaming

for chunk in llm.stream("Write a short poem about AI."):
print(chunk.content, end="")

Headers Personalizados

Passe headers especificos do Floopy usando default_headers:

llm = ChatOpenAI(
base_url="https://api.floopy.ai/v1",
api_key=os.environ["FLOOPY_API_KEY"],
model="gpt-4o",
default_headers={
"Floopy-Cache": "semantic",
"floopy-property-environment": "production",
"floopy-property-feature": "chat",
"floopy-fallback": "claude-sonnet-4-20250514",
},
)
HeaderDescricao
Floopy-CacheEstrategia de cache: semantic ou exact
floopy-property-*Anexe metadados personalizados para filtragem no dashboard
floopy-fallbackModelo de fallback se o provedor principal falhar
floopy-session-idAgrupe requisicoes relacionadas em uma sessao
floopy-user-idAssocie requisicoes a um usuario final

Consulte a Referencia de Headers para a lista completa.