Skip to content

Fortgeschrittene Anwendung des MCP

Wenn du regelmäßig mit dem MCP arbeitest und größere Projekte umsetzt, lohnen sich einige strategische Vorgehensweisen. Hier zeigen wir dir, wie du komplexe Aufgaben strukturierst, die richtigen KI-Modelle wählst und deine Datenbank optimal einbindest.

Komplexe Szenarien meistern

Je umfangreicher dein Projekt, desto wichtiger ist eine klare Aufgabenstrukturierung. Der MCP kann dir bei anspruchsvollen Aufgaben helfen – wenn du die Anfrage richtig aufbereitest.

Code in Dateien organisieren

Bei größeren Projekten empfiehlt es sich, den Code in einzelne Dateien aufzuteilen (z.B. ein Trigger pro Datei). Du kannst im Chat direkt auf diese Dateien verweisen: Nutze den Ninox-MCP. Optimiere den Trigger in der Datei 'trigger-rechnungen.nxs'. Die KI liest den Code ein, nutzt den MCP für die Analyse und schreibt das Ergebnis zurück in die Datei.

Visuelle Referenzen nutzen

Für den Bau oder Umbau von GIP-Modulen kannst du Screenshots in deine Anfrage einbinden. Die KI erkennt das Layout und passt den Code entsprechend an. Nutze den GIP-MCP. Erstelle ein Canvas-Layout, das dem beigefügten Screenshot ähnelt.

Code-Übersetzung und Migration

Der MCP hilft nicht nur bei neuem Code, sondern auch bei der Migration:

  • Code aus JavaScript, Python oder anderen Sprachen in Ninox-Script übersetzen lassen
  • Bestehende UI-Elemente in GIP-Module umwandeln
  • Legacy-Ninox-Code modernisieren

Das richtige KI-Modell wählen

Für komplexe Aufgaben ist die Wahl des KI-Agenten entscheidend. Nicht jedes Modell eignet sich für jeden Anwendungsfall.

KI-AgentWann du ihn nutzen solltest
Cursor 'Auto'Nur für kleine, isolierte Aufgaben. Liefert oft unoptimierten Code.
Composer 1.5Gut für kleinere Aufgaben, bei längerem Code oder viel Kontext eher ungeeignet.
Sonet 4.6Sehr gute Ergebnisse auch bei größeren Codes und komplexen Anforderungen.
Opus 4.6Beste Ergebnisse bei komplexen Aufgaben, aber höherer Token-Verbrauch.
GPT-5.3 CodexSehr gute Ergebnisse bei kleineren Codes, mit größeren Codes noch nicht umfangreich getestet.

Faustregel: Große Modelle verstehen komplexe Zusammenhänge besser, verbrauchen aber mehr Token. Für anspruchsvolle Ninox-Projekte mit viel Kontext sind Sonet oder Opus meist die bessere Wahl.

Planning Mode: Clever Token sparen

Bei umfangreichen Aufgaben empfehlen wir den Planning Mode (Cursor). Hier legt die KI einen Implementierungsplan an, ohne direkt zu coden. Das spart bis zu 90% der AI-Token (die das KI-Modell verbraucht), da die eigentliche Code-Erstellung mit einem günstigeren Modell erfolgen kann. Die MCP-Token werden dadurch ebenfalls indirekt reduziert: Ein guter Plan führt zu weniger Nachbesserungen und damit zu weniger Anfragen an den MCP-Server.

Unser bewährtes Vorgehen:

  1. Planning Mode aktivieren und großes Thinking-Modell wählen (z.B. Opus 4.6)
  2. Prompt mit genauen Anforderungen schreiben und Plan erstellen lassen
  3. Plan überprüfen und Anpassungen kommunizieren
  4. Günstigeres Modell wählen (z.B. Kimi K2.5 oder Composer 1.5) und Plan umsetzen lassen

So nutzt du die Stärken der großen Modelle (Verständnis, Planung) ohne deren Kosten bei der Code-Generierung zu tragen.

Datenbank-Schema für bessere Ergebnisse

Wenn die KI dein Datenbankschema kennt, kann sie gezielter optimieren: Felder korrekt referenzieren, Beziehungen berücksichtigen und das Schema selbst verbessern.

Schema exportieren

Mit folgendem Ninox-Script exportierst du dein Schema als Datei (kein API-Key nötig, rein interner Ninox-Call):

json
let host := first(split(urlOf(this), "#"));
let team := teamId();
let database := databaseId();
let dbSchemaFileName := join(["Schema for ", database, "_", format(now(), "YYYY-MM-DDTHH:mm:ss"), ".ninoxSchema"], "");
let dbSchemaFileLink := do as server
		let response := http("GET", host + team + "/" + database + "/json/bootstrap", {
				'content-type': "application/json"
			}, "");
		let dbSchema := formatJSON(response.result.schema);
		createTempFile(dbSchema, dbSchemaFileName)
	end;
openURL(dbSchemaFileLink)