Drop-in — OpenAI und MCP
Zwei Integrationswege — ein OpenAI-kompatibler Endpunkt für Apps, die bereits auf dem OpenAI-SDK laufen, und ein MCP-Server, der Moonborn-Personas als Model-Context-Protocol-Ressourcen für IDEs und Agent-Frameworks bereitstellt.
Zwei Wege hinein
Wenn du bereits eine OpenAI-basierte App hast, ist der Wechsel zu Moonborn eine einzeilige Änderung. Wenn du mit Claude oder Agent-Frameworks baust, die Model Context Protocol sprechen, exponiere Moonborn-Personas als MCP-Ressourcen.
Beide Wege sind erstklassig. Wähle den, der zu deiner bestehenden Verdrahtung passt.
Drop-in — OpenAI-kompatibel
Moonborn hostet einen OpenAI-kompatiblen chat/completions-Endpunkt. Der Modellname ist die Persona-ID; alles andere (Streaming, Tool Use, Function Calling) läuft durch.
import OpenAI from 'openai';
const client = new OpenAI({
apiKey: process.env.MOONBORN_API_KEY,
baseURL: 'https://api.moonborn.co/v1/openai',
});
const response = await client.chat.completions.create({
model: 'persona://persona_mert_abc123',
messages: [{ role: 'user', content: 'What drives you?' }],
});
console.log(response.choices[0].message.content);Was sich ändert:
- Base-URL —
https://api.moonborn.co/v1/openai. - API-Key-Env-Var —
MOONBORN_API_KEY. - Model-Feld —
persona://<persona_id>stattgpt-4.
Was bleibt:
- Streaming und Non-Streaming werden beide unterstützt.
- Tool Calling und Function Calling laufen durch.
GET /v1/modelslistet deine Workspace-Personas als Modelle.- Rate-Limit-Header, Token-Counts und Fehlerformen folgen den OpenAI-Konventionen.
Moonborn-spezifische Metadaten (drift-Score, Schichtzuordnung) werden über x-moonborn-*-Response-Header geliefert — von OpenAI-Clients sicher ignoriert.
Nicht kompatibel: Bildgenerierung, Embeddings, Audio. Das ist nicht Moonborns Domäne — behalte deinen OpenAI-Client dafür parallel. Mehr dazu in OpenAI-kompatibel.
MCP — Personas als Ressourcen
Moonborn exponiert einen Model-Context-Protocol-Server unter https://api.moonborn.co/v1/mcp. Jede Persona ist eine MCP-Ressource (System-Prompt, voice fingerprint, DNA für den Client verfügbar). Ein chat-Tool initiiert eine persona-gebundene Chat-Sitzung.
Typische Client-Konfiguration (Claude für VS Code, Cursor, JetBrains oder ein MCP-kompatibler Agent-Host):
{
"mcpServers": {
"moonborn": {
"transport": "https",
"url": "https://api.moonborn.co/v1/mcp",
"headers": { "Authorization": "Bearer ${MOONBORN_API_KEY}" }
}
}
}Wofür der MCP-Server gedacht ist:
- IDE-Integrationen — Claude in VS Code, Cursor oder JetBrains, die Persona-Kontext für Code-Review, markenstimmiges Schreiben oder Charakter-Roleplay ziehen.
- Agent-Framework-Hosts — LangChain, LlamaIndex, Anthropic Managed Agents, die MCP sprechen und einen Persona-Ressourcen-Pool brauchen.
Wofür der MCP-Server nicht da ist: ein generischer LLM-Router, ein vollwertiger Agent-Host oder ein Ersatz für den chat/completions-Endpunkt. Er bedient Personas an MCP-Clients. Das ist der Scope.
Wann was
| Wenn du hast … | Nutze |
|---|---|
| Eine bestehende OpenAI-basierte App | OpenAI-kompatiblen Endpunkt |
| Claude- / MCP-kompatible IDE oder Agent-Framework | MCP-Server |
| Eigenen HTTP-Client, kein OpenAI-Fußabdruck | Natives REST + SDKs (Schnellstart) |
Tarif
OpenAI-kompatibel: ab Free-Tarif. MCP-Server: ab Team-Tarif.
Weiter
- Lies OpenAI-kompatibel für die vollständige Integrationsseite.
- Durchstöbere die SDKs unter SDKs.
- Referenz-Dokumentation auf API reference.