App öffnen
Moonborn — Developers

Drop-in — OpenAI und MCP

Zwei Integrationswege — ein OpenAI-kompatibler Endpunkt für Apps, die bereits auf dem OpenAI-SDK laufen, und ein MCP-Server, der Moonborn-Personas als Model-Context-Protocol-Ressourcen für IDEs und Agent-Frameworks bereitstellt.

Zwei Wege hinein

Wenn du bereits eine OpenAI-basierte App hast, ist der Wechsel zu Moonborn eine einzeilige Änderung. Wenn du mit Claude oder Agent-Frameworks baust, die Model Context Protocol sprechen, exponiere Moonborn-Personas als MCP-Ressourcen.

Beide Wege sind erstklassig. Wähle den, der zu deiner bestehenden Verdrahtung passt.

Drop-in — OpenAI-kompatibel

Moonborn hostet einen OpenAI-kompatiblen chat/completions-Endpunkt. Der Modellname ist die Persona-ID; alles andere (Streaming, Tool Use, Function Calling) läuft durch.

import OpenAI from 'openai';
 
const client = new OpenAI({
 apiKey: process.env.MOONBORN_API_KEY,
 baseURL: 'https://api.moonborn.co/v1/openai',
});
 
const response = await client.chat.completions.create({
 model: 'persona://persona_mert_abc123',
 messages: [{ role: 'user', content: 'What drives you?' }],
});
 
console.log(response.choices[0].message.content);

Was sich ändert:

  • Base-URLhttps://api.moonborn.co/v1/openai.
  • API-Key-Env-VarMOONBORN_API_KEY.
  • Model-Feldpersona://<persona_id> statt gpt-4.

Was bleibt:

  • Streaming und Non-Streaming werden beide unterstützt.
  • Tool Calling und Function Calling laufen durch.
  • GET /v1/models listet deine Workspace-Personas als Modelle.
  • Rate-Limit-Header, Token-Counts und Fehlerformen folgen den OpenAI-Konventionen.

Moonborn-spezifische Metadaten (drift-Score, Schichtzuordnung) werden über x-moonborn-*-Response-Header geliefert — von OpenAI-Clients sicher ignoriert.

Nicht kompatibel: Bildgenerierung, Embeddings, Audio. Das ist nicht Moonborns Domäne — behalte deinen OpenAI-Client dafür parallel. Mehr dazu in OpenAI-kompatibel.

MCP — Personas als Ressourcen

Moonborn exponiert einen Model-Context-Protocol-Server unter https://api.moonborn.co/v1/mcp. Jede Persona ist eine MCP-Ressource (System-Prompt, voice fingerprint, DNA für den Client verfügbar). Ein chat-Tool initiiert eine persona-gebundene Chat-Sitzung.

Typische Client-Konfiguration (Claude für VS Code, Cursor, JetBrains oder ein MCP-kompatibler Agent-Host):

{
 "mcpServers": {
 "moonborn": {
 "transport": "https",
 "url": "https://api.moonborn.co/v1/mcp",
 "headers": { "Authorization": "Bearer ${MOONBORN_API_KEY}" }
 }
 }
}

Wofür der MCP-Server gedacht ist:

  • IDE-Integrationen — Claude in VS Code, Cursor oder JetBrains, die Persona-Kontext für Code-Review, markenstimmiges Schreiben oder Charakter-Roleplay ziehen.
  • Agent-Framework-Hosts — LangChain, LlamaIndex, Anthropic Managed Agents, die MCP sprechen und einen Persona-Ressourcen-Pool brauchen.

Wofür der MCP-Server nicht da ist: ein generischer LLM-Router, ein vollwertiger Agent-Host oder ein Ersatz für den chat/completions-Endpunkt. Er bedient Personas an MCP-Clients. Das ist der Scope.

Wann was

Wenn du hast …Nutze
Eine bestehende OpenAI-basierte AppOpenAI-kompatiblen Endpunkt
Claude- / MCP-kompatible IDE oder Agent-FrameworkMCP-Server
Eigenen HTTP-Client, kein OpenAI-FußabdruckNatives REST + SDKs (Schnellstart)

Tarif

OpenAI-kompatibel: ab Free-Tarif. MCP-Server: ab Team-Tarif.

Weiter