Together
Visao Geral
A Together e um provedor de inferencia que hospeda uma ampla variedade de modelos open-source incluindo Llama, Mixtral, Qwen e outros. O Floopy encaminha requisicoes para a API compativel com OpenAI da Together.
Modelos Suportados
| Modelo | Janela de Contexto | Notas |
|---|---|---|
meta-llama/Llama-3.3-70B-Instruct-Turbo | 128K | Llama 3.3 70B Turbo |
meta-llama/Llama-4-Maverick-17B-128E-Instruct-FP8 | 128K | Llama 4 Maverick |
Qwen/Qwen3-235B-A22B | 128K | Qwen 3 235B MoE |
mistralai/Mixtral-8x22B-Instruct-v0.1 | 64K | Mixtral 8x22B |
deepseek-ai/DeepSeek-V3 | 128K | DeepSeek V3 |
Configuracao
- Va para Settings > Providers no dashboard.
- Clique em Add provider e selecione Together.
- Cole sua API key da Together e clique em Save.
Uso
import OpenAI from "openai";
const client = new OpenAI({ baseURL: "https://api.floopy.ai/v1", apiKey: process.env.FLOOPY_API_KEY,});
const response = await client.chat.completions.create({ model: "meta-llama/Llama-3.3-70B-Instruct-Turbo", messages: [{ role: "user", content: "Explique computacao quantica." }],});from openai import OpenAI
client = OpenAI(base_url="https://api.floopy.ai/v1", api_key=os.environ["FLOOPY_API_KEY"])
response = client.chat.completions.create( model="meta-llama/Llama-3.3-70B-Instruct-Turbo", messages=[{"role": "user", "content": "Explique computacao quantica."}],)curl https://api.floopy.ai/v1/chat/completions \ -H "Authorization: Bearer $FLOOPY_API_KEY" \ -H "Content-Type: application/json" \ -d '{"model": "meta-llama/Llama-3.3-70B-Instruct-Turbo", "messages": [{"role": "user", "content": "Explique computacao quantica."}]}'Recursos Especificos
- Grande catalogo de modelos — Acesso a Llama, Qwen, Mixtral, DeepSeek e muitos outros modelos open-source.
- Variantes Turbo — Alguns modelos oferecem variantes Turbo otimizadas para inferencia mais rapida e menor custo.
- Nomenclatura — Modelos usam o formato
org/Nome-Modelo(ex.:meta-llama/Llama-3.3-70B-Instruct-Turbo).