Querys

Datasets in Xentral Connect sind ein leistungsstarkes Werkzeug, um gezielte Datenbankabfragen auf die in MongoDB gespeicherten Connect-Daten durchzuführen.

Was ist ein Dataset?

Ein Dataset ist:

  • eine Abfrage (Query) auf eine bestehende Datenstruktur (z. B. Aufträge, Produkte, Bestände),

  • basierend auf MongoDB, der internen Datenbank von Xentral Connect,

  • erstellt mit dem integrierten Query-Builder,

  • und kann im Workflow als Datengrundlage für weitere Verarbeitungsschritte genutzt werden.

Datasets liefern in der Regel Teil-Ergebnisse deiner Datenbasis — z. B. ausgewählte Felder oder gefilterte Datensätze — und machen diese im Workflow weiterverwendbar.

💡 Beispiel: Du kannst ein Dataset nutzen, um alle Produkte mit einem bestimmten Lagerbestand zu ermitteln und anschließend in einem Workflow automatisch deren Preise zu aktualisieren.

Zugriff auf Datasets

Du findest Datasets in der Connect-UI im seitlichen Menü unter

Daten → Datasets

Hier werden alle vorhandenen Datasets tabellarisch aufgelistet.


Die Dataset-Übersicht

Die Übersicht enthält:

  • Name des Datasets

  • Letzte Aktualisierung

  • Aktionen:

    • ✏️ Editor öffnen – öffnet den Query-Builder

    • ⚙️ Konfiguration bearbeiten – Name, Projekt, Datenstruktur

    • 📤 Exportieren – exportiert das Dataset (z. B. für andere Projekte)

    • 🕓 Versionshistorie – zeigt Änderungen über die Zeit

Je nach Projektkontext gelten unterschiedliche Berechtigungen:

Projekt
Berechtigungen

Standardprojekt (z. B. Xentral-Standard)

Nur Lesen / Exportieren

Default-Projekt

Schreiben, Anlegen, Importieren


Arbeiten mit dem Dataset-Editor

Der Query-Builder ist das Herzstück der Dataset-Verwaltung. Er funktioniert ähnlich wie die MongoDB-eigene Aggregationspipeline: du baust deine Abfrage Stage für Stage auf.

Jede Stage repräsentiert eine logische Operation, z. B. Filtern, Felder auswählen, Gruppieren oder Joinen. Nach jeder Stage kannst du dein Zwischenergebnis sofort testen – das Ergebnis wird direkt im unteren Bereich angezeigt.


Verfügbare Stage-Typen

Einige wichtige Stages im Überblick:

Stage
Beschreibung

Collection auflösen

Öffnet eine Datenquelle (z. B. „orders“ oder „products“)

Felder auswählen

Wählt gezielt Felder aus dem Datensatz (z. B. product_id, created_at)

Filtern

Eingrenzung nach bestimmten Bedingungen

Gruppieren

Aggregiert Daten nach bestimmten Schlüsseln

Joinen

Verknüpft Daten aus verschiedenen Collections

Zählen

Gibt die Anzahl der Datensätze aus


Beispiel: Felder auswählen

1

Schritt

Öffne ein Dataset im Editor.

2

Schritt

Füge eine neue Stage hinzu → „Felder auswählen“.

3

Schritt

Klicke auf „Feld hinzufügen“.

4

Schritt

Wähle z. B. aus der Quelle source das Feld Product ID.

5

Schritt

Vergib optional einen Aliasnamen (z. B. product_id).

6

Schritt

Teste die Stage – das Ergebnis zeigt nur die gewählten Felder an.

Du kannst weitere Felder ergänzen, z. B. created_at, und siehst die Ergebnisse direkt im Editor.


Beispiel: Filter hinzufügen

1

Schritt

Füge eine neue Stage hinzu → „Filtern“.

2

Schritt

Lege fest, dass z. B. product_id = 100 sein soll.

3

Schritt

Teste die Abfrage – es wird nur noch der Datensatz mit dieser ID angezeigt.

4

Schritt

Speichere dein Dataset (sofern du Schreibrechte hast).

Dieses Dataset kann nun in einem Workflow als Datenquelle genutzt werden.


Parameterisierte Datasets

Datasets können parameterisiert werden, um sie dynamisch im Workflow zu verwenden. Anstatt feste Werte im Filter zu hinterlegen, kannst du Parameter definieren, die im Workflow befüllt werden.

Beispiel:

Im Filter-Stadium ersetzt du den festen Wert 100 durch den Parameter {{productId}}.

Im Workflow übergibst du dann den tatsächlichen Wert an diesen Parameter – etwa aus einer vorherigen Workflow-Komponente.

🔄 Damit kannst du ein Dataset mehrfach verwenden, z. B. um für unterschiedliche Produkt-IDs dieselbe Abfrage dynamisch auszuführen.


Dataset-Konfiguration

Unter Konfiguration bearbeiten (⚙️) findest du:

  • Name: eindeutige Bezeichnung

  • Projekt: Zuordnung zu einem Projekt

  • Basis-Datenstruktur: legt die Collection fest, auf der das Dataset basiert

⚠️ Die Basis-Datenstruktur kann nachträglich nicht mehr geändert werden.


Export und Versionierung

  • Export: ermöglicht den Export eines Datasets zur Wiederverwendung in anderen Projekten

  • Versionshistorie: listet alle Änderungen (Stages, Filter, etc.) chronologisch auf

So kannst du nachvollziehen, wann und wie ein Dataset angepasst wurde.


Best Practice

Datasets sind besonders nützlich, wenn du:

  • Daten für Workflows vorfiltern oder aufbereiten möchtest,

  • Teilbereiche deiner Datenbank regelmäßig abfragen willst,

  • oder mehrere Datenquellen kombinieren musst.

Beispielhafte Use Cases:

  • Produktlisten für Preisaktualisierungen

  • Bestellabfragen nach Status

  • Reporting über bestimmte Kunden- oder Artikelgruppen

🎥 In den Use-Case-Videos findest du praxisnahe Beispiele für den Einsatz von Datasets in Workflows.

Zuletzt aktualisiert

War das hilfreich?