Einrichtung des MCP und Verwendung in deiner KI-Anwendung
So richtest du den MCP ein
1. Token kaufen
Besuche unseren Shop und kaufe MCP-Token (Kauf nur mit Login möglich).
2. Konfiguration herunterladen
Die JSON-Datei mit deinem MCP-API-Key findest du im Nutzerbereich unter "Token-Verbrauch".
3. In deine KI-Anwendung einfügen (Update)
Stand der Anleitung
Diese Anleitung basiert auf den aktuellen Versionen der KI-Anwendungen (Stand: März 2026). Konsultiere die offizielle Dokumentation deiner KI-Anwendung, wenn du Abweichungen feststellst.
Cursor:
- Öffne die Einstellungen mit der Kombination
Cmd + Shift + J(Mac) oderCtrl + Shift + J(Windows/Linux). Alternativ: Klicke auf das Zahnrad-Icon in der oberen rechten Ecke. - Wähle im Tab-Menü den Punkt "Tools & MCP".
- Klicke auf "+ New MCP Server".
- Füge die JSON-Konfiguration aus deinem Nutzerbereich ein und klicke auf "Save".
Claude Desktop:
- Klicke in der App auf deinen Profilnamen (unten links oder oben rechts) → Settings.
- Gehe zu "Developer" und klicke auf "Edit Config".
- Füge deine Konfiguration in die geöffnete claude_desktop_config.json unter "mcpServers" ein.
- Wichtig: Starte die App über das Taskbar-Icon (System-Tray) komplett neu, damit die Änderungen greifen.
VS Code:
- Stelle sicher, dass eine MCP-kompatible Erweiterung (z. B. Cline oder Roo Code) installiert ist.
- Öffne das Panel der Erweiterung und klicke auf das Zahnrad/Einstellungen-Icon.
- Suche das Feld "MCP Settings" und füge die JSON-Konfiguration hinzu.
- Falls der Server nicht erscheint: Lade das Fenster neu (Ctrl + Shift + P → "Developer: Reload Window").
Wie verwende ich den MCP?
Nach der Einrichtung steht dir der MCP als Wissensquelle und Validierungsinstanz in deiner KI-Anwendung zur Verfügung. Sage deinem KI-Agenten einfach in deinem nächsten Prompt, welchen MCP-Server er für die aktuelle Aufgabe nutzen soll und dass der generierte Code am Ende validiert werden soll.
Du musst diese Angabe nicht in jedem Promt machen, aber mindestens in dem ersten Promt, bei dem dein KI-Agent den MCP-Server verwenden soll. Bei längeren Chat-Sitzungen muss die Anfrage an den MCP gelegentlich wiederholt werden, da KI-Agenten irgendwann den Kontext komprimieren und damit einen Teil des Wissens wieder verlieren.
Dafür schreibst du in deinem Prompt einfach Nutze den Ninox-MCP für diese Aufgabe oder Nutze den GIP-MCP für diese Aufgabe.
Gute Prompts für die KI-Agenten
Zusätzlich zum Abruf des MCP-Servers solltest du deinem KI-Agenten möglichst genaue Angaben für die zu erledigende Aufgabe geben. So kann er besser einschätzen, welche Informationen er aus dem MCP benötigt, den Code genauer auf deine Anforderungen abstimmen und das Ergebnis anschließend gezielt validieren. Hier sind ein paar Beispiele, wie du deine Anfragen an die KI formulieren kannst:
| Zu ungenau | Richtige Formulierung |
|---|---|
| "Ich brauche Skript für einen Rechnungen-Herunterladen-Button" | "Schreibe mir ein Ninox-Skript, das mir gefilterte Rechnungen gesammelt in einer ZIP-Datei herunterlädt. Die Rechnungen sollen nach Status 'Erledigt' (id=4) und Datum innerhalb der letzten 30 Tagen gefiltert werden." |
| "Der Code funktioniert nicht" | "Mein Ninox-Code legt zwar neue Records an, aber die Bilddateien werden nicht hochgeladen: ..." + Code einfügen |
| "Baue eine Startseite für Mitarbeiter" | "Erstelle eine Startseite für Mitarbeiter in Ninox mit:
|
Planning Mode und die unterschiedlichen KI-Agenten
Wir selbst nutzen bereits seit einiger Zeit Cursor und die darin enthaltenen KI-Agenten. Daher können wir aus Erfahrung sagen: KI-Agenten sind nicht alle gleich und nicht jeder ist für alle Aufgaben geeignet. Hier ist eine Übersicht der Unterschiede:
| KI-Agent | Einsatzbereich & Beschränkungen |
|---|---|
| Cursor 'Auto' | Für kleinere Aufgaben (kurzer Code, wenig Kontext) ok, liefert aber häufig unoptimierten Code |
| Composer 1.5 | Liefert gute Ergebnisse für kleinere Aufgaben, kann aber für größere Aufgaben (langer Code, viel Kontext) eher ungeeignet sein |
| Sonet 4.6 | Sehr gute Ergebnisse, meist auch für größere Codes |
| Opus 4.6 | Liefert die besten Ergebnisse, auch für größere Codes. Ist aber auch am teuersten |
| GPT-5.3 Codex | Sehr gute Ergebnisse mit kleineren Codes. Mit größeren Codes noch nicht getestet. |
Welches Modell genau du nutzen solltest, hängt von der Komplexität deiner Aufgabe und Länge deines Codes ab. Insgesamt kann man aber sagen, dass größere Modelle meist besser für die Ninox-Entwicklung geeignet sind, da sie mehr Kontext erfassen können, also die Aufgabe besser verstehen. Allerdings sind große Modelle in der Regel auch deutlich teurer und verbrauchen mehr Token.
Unser Tipp ist daher der Planning Mode (Cursor). In diesem Modus legt sich die KI einen Plan für die Aufgabe an, ohne direkt zu coden. Der Vorteil: Die Erstellung des Plans kostet aber nur einen Bruchteil der Token, die der Code kosten würde. Auch beim Planning Mode gilt, dass größere KI-Modelle meist bessere Pläne liefern. Wir gehen in der Regel wie folgt vor:
- Planning Mode einstellen und ein großes Thinking-Modell (z.B. Opus 4.6) verwenden
- Promt schreiben mit möglichst genauen Anforderungen und KI-Agenten planen lassen
- Plan überprüfen und anpassen des Plans
- Manuell ein günstigeres Modell (z.B. Kimi K2.5 oder Composer 1.5) auswählen und den Plan umsetzen lassen
