LangChain (Python)
Visao Geral
O Floopy e um gateway sem SDK. O pacote langchain-openai ja suporta URLs base personalizadas, entao voce pode rotear todas as requisicoes do LangChain pelo Floopy sem dependencias extras. Voce ganha cache, rate limiting, fallbacks e observabilidade de graca.
Instalacao
pip install langchain-openaipoetry add langchain-openaiConfiguracao
from langchain_openai import ChatOpenAIimport os
llm = ChatOpenAI( base_url="https://api.floopy.ai/v1", api_key=os.environ["FLOOPY_API_KEY"], # starts with fp_ model="gpt-4o",)Defina FLOOPY_API_KEY no seu ambiente. Voce pode criar uma no dashboard.
Requisicao Basica
response = llm.invoke("Explain quantum computing in one sentence.")print(response.content)Troque de provedor alterando o nome do modelo:
llm_anthropic = ChatOpenAI( base_url="https://api.floopy.ai/v1", api_key=os.environ["FLOOPY_API_KEY"], model="claude-sonnet-4-20250514",)
response = llm_anthropic.invoke("Hello!")Streaming
for chunk in llm.stream("Write a short poem about AI."): print(chunk.content, end="")Headers Personalizados
Passe headers especificos do Floopy usando default_headers:
llm = ChatOpenAI( base_url="https://api.floopy.ai/v1", api_key=os.environ["FLOOPY_API_KEY"], model="gpt-4o", default_headers={ "Floopy-Cache": "semantic", "floopy-property-environment": "production", "floopy-property-feature": "chat", "floopy-fallback": "claude-sonnet-4-20250514", },)| Header | Descricao |
|---|---|
Floopy-Cache | Estrategia de cache: semantic ou exact |
floopy-property-* | Anexe metadados personalizados para filtragem no dashboard |
floopy-fallback | Modelo de fallback se o provedor principal falhar |
floopy-session-id | Agrupe requisicoes relacionadas em uma sessao |
floopy-user-id | Associe requisicoes a um usuario final |
Consulte a Referencia de Headers para a lista completa.