So funktioniert's

Integrieren Sie doch, was Sie wollen

Unsere vorgefertigten Systemkonnektoren reduzieren die Komplexität Ihrer Integrationen deutlich, indem Sie für die nahtlose Integration einzelner Systeme notwendige Businesslogik in Form sogenannter Custom Functions bereitstellen. So lassen sich mit yedi hunderte unterschiedlicher Systeme integrieren, in der Cloud und On-Premise.

Passenden Konnektor finden

Effiziente Entwicklung nach dem Baukastensystem

Yedi Workflows

yedi Workflows basieren auf einer großen Menge fertiger Komponenten. Eine Komponente ist dabei ein Funktionsbaustein, der eine bestimmte Aufgabe erfüllt. Komponenten können im Workflow-Designer per Drag&Drop zu Workflows kombiniert werden. Ein Workflow besteht also immer aus mehreren Komponenten.

Schritt 1: Trigger

Trigger führen die in yedi generierten Prozesse serverseitig aus - Sie steuern also den jeweiligen Workflow. Pro Workflow lassen sich verschiedene Trigger kombinieren um einen Workflow z.B. manuell, zeitbasiert per Cronjob und per Aufruf eines Webhokks von außen aufrufen zu können. So lassen sich Workflows automatisieren und optimal an die bestehenden Unternehmensprozesse angliedern.

Schritt 2: Konnektoren

Die Anbindung der verschiedenen Systeme an yedi erfolgt über sogenannte Konnektoren. Dabei wird zwischen sogenannten generischen Konnektoren für einzelne Dateiformate und Datenstandards und sogenannten nativen Konnektoren für spezifische IT-Systeme unterschieden.

Konnektoren funktionierend sowohl lesend und schreibend. Je nach Konnektor stehen unterschiedliche Methoden zur Verfügung, um auf unter schiedliche Datenressourcen zuzugreifen.

Schritt 3: Data Store

Sobald Sie Zugriff auf eine Datenquelle haben können Sie die hier gelesenen Daten in yedi Speichern. Die Data Store Komponente fungiert dabei als Datenspeicher, aus dem Daten auch direkt wieder gelesen werden können. Zwischengespeicherte Daten in yedi können z.B. über die Data Sets bearbeitet werden, so dass für weitere Prozessschritte nur optimal vorbereitete Daten weiterverwendet werden.

Schritt 4: Operatoren

Operatoren verknüpfen einzelne Komponenten logisch zu einem funktionierenden Workflow. Sie definieren gewissermaßen den Ablauf eines Workflows und steuern damit den sogenannten Dataflow, also den Fluss der Datenpakete im Workflow.

Schritt 5: Mapping

Mit Hilfe von Datenmappings transformieren Sie Daten strukturell und syntaktisch, z.B. damit die Daten aus Ihrer Datenquelle zur erwarteten Datenstruktur Ihres Zielkonnektors passen. Mappings finden dabei immer zwischen zwei bestehenden Datenstrukturen nach. Nachdem Sie ein Mapping erstellt haben, können Sie dieses einfach über die entsprechende Komponente im Workflow platzieren.

Schritt 6: Helper

Transformieren Sie Ihre Daten direkt im jeweiligen Prozess. Über die Helper-Komponenten stehen eine Vielzahl unterschiedlicher Transformatoren bereit.

Transformatoren

Bearbeiten Sie jede Verbindung zwischen zwei Datenfeldern mit Hilfe von Transformatoren. 

Drag & Drop

Verbinden Sie Ziel- und quellfelder ghanz einfach per Drag&Drop. Ordnen Sie dabei problemlos mehrere Quellfelder einem Zielfeld zu oder teilen Sie ein Quellfeld auf mehrere Zielfelder auf.

Debug Modus

  • Transformatoren auf Quel- und Zielebene
  • Debug-Mode
  • Undo- und Redo-Funktion
  • Verarbeitung 3dimensionaler Datenstrukturen
  • Volltextsuche