KI-gestützte Ninox-Entwicklung mit MCP
Mit unserem MCP bekommt dein KI-Assistent endlich das Fachwissen, das für Ninox bisher gefehlt hat. So entstehen nicht nur bessere Code-Vorschläge, sondern schneller nutzbare Ergebnisse für Skripte, Debugging und den Einsatz unserer GIP-Module.
Warum Ninox-Script ein Problem für KI ist
Selbst die besten KI-Modelle verstehen Ninox kaum. Frage ChatGPT nach einem Ninox-Trigger – und du bekommst JavaScript:
- Zuweisungen mit
=statt:= - Kommentare mit
//statt"String-Ausdrücke"; - Schleifen mit
for(...){...}stattfor x in y do ... end - Funktionen wie
map()oderforEach(), die es in Ninox nicht gibt
Das liegt nicht an der KI, sondern daran, dass Ninox in keinem KI-Trainingsdatensatz ausreichend vertreten ist. Die KI hat also niemals beigebracht bekommen, wie Ninox-Code funktioniert.
Was ist MCP?
MCP steht für Model Context Protocol. Es ist ein offener Standard, der es KI-Anwendungen wie Cursor oder Claude ermöglicht, auf externe Wissensdatenbanken und spezialisierte Werkzeuge zuzugreifen.
Statt auf allgemeines KI-Wissen zurückzugreifen, fragt dein Assistent unseren Server: "Wie funktioniert die Ninox-Syntax?" – und bekommt sofort die richtige Antwort. Alle Inhalte stammen aus unserer eigenen Ninox-Entwicklungserfahrung und enthalten nicht nur Syntax-Grundlagen, sondern auch Edge Cases, Quirks und Fallstricke aus echten Projekten. Der MCP ist also keine Kopie der Ninox-Dokumentation, sondern eine spezialisierte Wissensdatenbank, die dir hilft, Ninox-Code zu schreiben, zu debuggen, zu verbessern und zu validieren.
Mehr als Dokumentation: Der MCP validiert auch Code
Ein guter KI-Vorschlag ist nur dann wirklich hilfreich, wenn er auch belastbar ist. Deshalb liefert unser MCP nicht nur Kontext für die Code-Erstellung, sondern unterstützt auch die Prüfung des generierten Codes.
- Validierung auf Syntaxfehler und typische Ninox-Fallstricke
- Erkennung von JavaScript-Mustern, die in Ninox nicht funktionieren
- Prüfung von Feldnamen, Kontext und Typen auf Basis deines Schemas
- Bessere Grundlage für Debugging, Review und saubere Übergabe an Kundenprojekte
Zwei MCP-Server – für unterschiedliche Anforderungen
Wir bieten zwei spezialisierte MCP-Server. Welchen du nutzt, hängt davon ab, was du entwickeln möchtest:
Ninox-MCP – Für reine Ninox-Programmierung
Nutze diesen Server, wenn du ausschließlich Ninox-Code schreiben möchtest. Er enthält über 20 Dokumentations-Themen, die wir aus jahrelanger Ninox-Entwicklung aufgebaut haben – inklusive aller technischen Besonderheiten und Quirks, die wir selbst erlebt haben.
- Über 20 Dokumentations-Themen: Syntax, Datentypen, this-Binding, select-Abfragen, Schleifen, Arrays, JSON, Trigger, Sicherheit, API/REST
- Vollständige Referenz aller Built-in-Funktionen: String-, Mathe-, Datums-, Formatierungs-, HTTP-, JSON-Funktionen und mehr
- Dokumentation von Ninox-Quirks und KI-Fallstricken
- Schema-Interpretation und -Validierung: Die KI kann deine Datenbank-Struktur lesen und in die Prüfung einbeziehen
- Code-Validierung: Generierter Ninox-Code kann auf Syntax, Typfehler, undefinierte Funktionen und typische KI-Fehler geprüft werden
Vorteil: Geringerer Token-Verbrauch, wenn du nur Ninox-Skript benötigst.
GIP-MCP – Für UI-Entwicklung mit GIP-Modulen
Nutze diesen Server, wenn du unsere GIP-Module einsetzen oder anpassen möchtest. Er enthält die vollständige Dokumentation aller Module und deren Parameter – inklusive Ninox-Script-Dokumentation und Validierungswissen.
- Dokumentation aller verfügbaren GIP-Module
- 143 dokumentierte Parameter über alle Module
- Enthält ebenfalls alle Ninox-Script-Informationen
- Unterstützt dadurch auch die Validierung von Ninox-Code im Zusammenspiel mit GIP-Modulen
Vorteil: Wenn du sowohl Module als auch Ninox-Skript benötigst, liefern wir beides in einem effizienten Aufruf – ohne separaten Ninox-Script-Server.
Ein Abonnement, zwei Experten
Mit einem Token-Abonnement erhältst du Zugriff auf beide MCP-Server. Sage deiner KI einfach, welchen MCP-Server sie nutzen soll.
Unterstützte KI-Anwendungen
Der MCP funktioniert mit allen Anwendungen, die das Model Context Protocol unterstützen. So kannst du die Vorteile in deiner gewohnten KI-Umgebung nutzen, ohne deinen Workflow umzustellen:
- Cursor – KI-nativer Code-Editor
- Claude Desktop – Anthropics Desktop-Anwendung
- VS Code – Mit Copilot Chat oder Continue-Extension
Token-System
Jede Anfrage an den MCP-Server verbraucht Token. Der Verbrauch richtet sich nach der Komplexität der Anfrage – je mehr Informationen die KI anfordert, desto mehr Token werden verbraucht.
- Transparenz: Token-Stand und Verbrauchsstatistiken im Nutzerbereich
- Echtzeit: Guthaben wird sofort aktualisiert
- Export: Nutzungshistorie als CSV herunterladbar
Token-Verbrauch
Eine typische Entwicklungs-Session verbraucht nach aktueller Testphase 15-50 Token. Im Nutzerbereich siehst du eine Hochrechnung, wie lange dein Guthaben reicht, und wie viel Token du pro Anfrage verbrauchst.
