Categories
Blog

Der Paradigmenwechsel: ETL oder ELT welche Datenintegrationsstrategie ist die richtige fĂŒr dein Unternehmen?

Um den Wert deiner Daten voll auszuschöpfen, ist es entscheidend, eine zentralisierte Datenspeicherung zu haben und gleichzeitig einen flexiblen Zugang zu ermöglichen.

Gerade im Analyse-, Visualisierungs- oder Reporting-Bereich, aber auch dem Marketing ist der Einsatz von ELT essentiell.

In folgendem Blog-Post habe ich fĂŒr dich die Unterschiede zwischen ETL und ELT, als auch die Vor- und Nachteile festgehalten.

Visualisierung, ein Direktvergleich: ETL vs. ELT
Ein Direktvergleich: ETL vs. ELT

Effiziente Datenintegration: ETL vs. ELT – Unterschiede und Vor- und Nachteile im Vergleich

ETL (Extract, Transform, Load) und ELT (Extract, Load, Transform) sind Methoden der Datenintegration.

The Buchstaben stehen bei beiden Methoden fĂŒr das Selbe: Extrahieren, Transformieren und Laden

  • Extrahieren: Extrahieren bezieht sich auf den Prozess des Abrufens von Daten aus einer Quelle oder einem Datenproduzenten, wie einer Datenbank, einer XML, Excel oder einem anderen Dateiformat oder einer Softwareanwendung.
  • Transformieren: Unter Transformation versteht man den Prozess der Konvertierung des Formats oder der Struktur eines Datensatzes in das Format eines Zielsystems.
  • Laden: Unter Laden versteht man den Vorgang, einen Datensatz in ein Zielsystem zu ĂŒberfĂŒhren.

Die Hauptaufgabe beider Methoden besteht im wesentlichen darin, Daten von einem Ort zum anderen zu ĂŒbertragen.

Der wichtigste Unterschied, bei ETL werden die Daten vor dem Laden in das Zielsystem umgewandelt, wÀhrend sie bei ELT erst danach umgewandelt werden.

ETL

ETL ist ein Akronym fĂŒr “Extrahieren, Transformieren und Laden” und beschreibt die drei Stufen der traditionellen Datenpipeline. Dabei werden Rohdaten aus der Quelle extrahiert, in einem sekundĂ€ren Verarbeitungsschritt transformiert und anschließend in eine Zieldatenbank geladen.

Diese Methode wurde in den 1970er-Jahren entwickelt und ist nach wie vor bei On-Premise-Datenbanken mit begrenztem Speicher und begrenzter Verarbeitungsleistung weitverbreitet.

ETL Visualisierung
ETL Visualisierung

In der Vergangenheit und vor dem Aufkommen der modernen Cloud war ETL notwendig, weil Speicherplatz und Rechenleistung begrenzt und entsprechend kostenintensiv waren.

ETL ermöglichte es Unternehmen, weniger ihrer knappen technologischen Ressourcen (Rechenleistung und Speicherplatz) zu verwenden. FĂŒr alles, was man an Bandbreite und Speicherplatz einsparen konnte, musste man wiederum Unmengen an Geld fĂŒr Entwickler:innen ausgeben.

Hauptproblem

Das Hauptproblem war der Mangel an Standardisierung. Die Verwendung von ETL bedeutete, dass Daten-Pipelines auf der Grundlage jeder Datenquelle und jedes Ziels meist individuell entworfen und entwickelt werden mussten. Das bedeutete, dass man Entwickler:innen mit den richtigen FÀhigkeiten brauchte, um Daten-Pipelines zu erstellen, zu pflegen und weiterzuentwickeln, sobald sich die Datenquellen Àndern und weiterentwickeln.

ELT

ETL steht fĂŒr “Extrahieren, Laden und Transformieren”.

Dabei handelt es sich um eine Methode zur Datenaufnahme, bei der Daten aus mehreren Quellen in ein Cloud-Data-Warehouses – Snowflake, Amazon Redshift und Google BigQuery -, Data Lake oder einen Cloud-Speicher ĂŒbertragen werden. Von dort aus können die Daten je nach Bedarf fĂŒr verschiedene Unternehmenszwecke und AnwendungsfĂ€lle umgewandelt und verwendet werden.

Im Gegensatz zu ETL mĂŒssen beim Extrahieren, Laden und Transformieren (ELT) vor dem Ladevorgang keine Datenumwandlungen vorgenommen werden.

ELT Visualisierung
ELT Visualisierung

Der Nutzen von ELT ist mit der zunehmenden Dynamik, Geschwindigkeit und Menge der Daten explodiert. Und sie wird durch eine zunehmend erschwingliche Cloud-Infrastruktur ermöglicht.

Außerdem erfordert ELT im Gegensatz zu ETL weniger technische Mitarbeitende. Durch die Trennung von Extraktion und Transformation ermöglicht ELT Analysten, Transformationen mit SQL durchzufĂŒhren. Diese Idee ist der SchlĂŒssel zum Erfolg von ELT, da sie es mehr Abteilungen ermöglicht, ihren Datenzugriff selbst zu verwalten.

Ein wesentlicher Aspekt, warum ELT so viel weniger arbeitsaufwendig ist, besteht darin, dass es eine grĂ¶ĂŸere Standardisierung ermöglicht.

Techniker:innen und Entwickler:innen können auf vorgefertigten Extraktions- und Ladelösungen fĂŒr gĂ€ngige Datenquellen aufbauen. Und fĂŒr individuelle und kompliziertere Datenquellen können sie das Fachwissen externer Anbieter und die standardisierten Grundlagen von bestehenden Systemen zurĂŒckgreifen.

Vorteil

  • Weniger Arbeitsaufwendig
  • Kosteneffizienter
  • Geschwindigkeit: Daten und Informationen immer bereit zur Verwendung
  • Weniger Entwickler:innen und Techniker:innen benötigt

Was sind die Vorteile von ELT versus ETL?

Mit der ETL-Methode jedoch, bei der die Daten umgewandelt werden, bevor sie in Ihr Zielsystem geladen werden, gehst du bereits im Vorhinein von Annahmen darĂŒber aus, wie diese Daten in der Zukunft verwendet werden.

Wenn sich die Anforderungen Ă€ndern, muss die gesamte ETL-Pipeline angepasst werden. Das erfordert unter UmstĂ€nden spezielle Kenntnisse, erhöhte Sicherheitsberechtigungen und UnterstĂŒtzung von Expert:innen.

Das ETL-Paradigma entstand in den 1970er Jahren und wurde in der Vergangenheit verwendet, um Daten zu entfernen und/oder zu Ă€ndern, bevor sie an ein Ziel gesendet wurden. Das Entfernen von Daten war in der Vergangenheit aufgrund der hohen Kosten fĂŒr die Rechenleistung und Speicherung notwendig. Die Kosten fĂŒr die Rechen- und Speicherleistung sind jedoch im Laufe der Jahre drastisch gesunken, wie die folgende Abbildung zeigt. Dadurch sind ELT-Pipelines, die sowohl die Rohdaten als auch die umgewandelten Daten am Zielort speichern, wirtschaftlich rentabel geworden.

Historical computer memory and storage costs

Im Gegensatz zu ETL entspricht der ELT-Ansatz der RealitĂ€t des sich schnell Ă€ndernden Datenbedarfs. Da der ELT-Prozess die Daten nach dem Laden umwandelt, ist es nicht erforderlich, im Voraus genau zu wissen, wie die Daten verwendet werden – neue Umwandlungen können an den Rohdaten vorgenommen werden, wenn der Bedarf entsteht.

DarĂŒber hinaus können Analysten immer auf die ursprĂŒnglichen Rohdaten zugreifen, da deren IntegritĂ€t durch nachfolgende Transformationen nicht beeintrĂ€chtigt wird.

Dies gibt den Analysten UnabhÀngigkeit von den Entwicklern und der IT, da es nicht notwendig ist, die Pipelines zu Àndern. Wenn am Zielort eine unverÀnderte Rohfassung der Daten vorhanden ist, können diese Daten umgewandelt werden, ohne dass eine erneute Synchronisierung der Daten aus den Quellsystemen erforderlich ist.

Fazit

Der wichtigste Unterschied zwischen beiden Methoden besteht darin, dass bei ETL die Daten vor dem Laden in das Zielsystem transformiert werden, wÀhrend sie bei ELT erst nach dem Laden umgewandelt werden.

Businessanforderungen und Anforderungen an die Datenanalyse Àndern sich schnell.

Daher ist ELT gerade im Analyse, Visualisierungs- oder Reporting-Bereich, aber auch Marketing essentiell.

Daten-Endanwender:innen, also Personen, die Reports erstellen, (Daten Analysten, Business Analysten, das Marketing etc.) benötigen einen flexiblen Zugriff auf diese Daten.

Denn nur dadurch können deine Daten wertstiftend fĂŒr Visualisierungen und Reports fĂŒr den Vertrieb, das Service-Team und das Management oder das Marketing, fĂŒr Marketingmaßnahmen und Marketingautomatisierung eingesetzt werden.

Daher lÀsst sich im Fazit sagen, dass ETL und ELT beide Methoden zur Integration von Daten sind, die in verschiedenen Szenarien eingesetzt werden können.

Categories
Blog Datenmanagement

In 3 Schritten zu deinem modernen Datenmanagement im Handel

Was sind die entscheidenden Komponenten, um heute modernes Datenmanagement in dein Handelsunternehmen zu integrieren?

Um heute modernes Datenmanagement zu betreiben, benötigt man eine Vielzahl von unterschiedlichen Anwendungen aus dem „modern data stack“. Diese Anwendungen bewegen sich meist in ihrer eigenen Kategorie und erfĂŒllen einen speziellen Zweck.

Was sind die entscheidenden Komponenten, um ein holistisches Gesamtkonstrukt zu erschaffen und die Grundlage fĂŒr ein modernes Datenmanagement zu bilden.

Durch die folgenden drei Schritte eröffnest du dir und deinem Handelsunternehmen ganz neue Möglichkeiten:

  1. Integration: Datensynchronisation
  2. Speicherung: Data Warehouse
  3. Visualisierung: Business Intelligence

1. Integration: Datensynchronisation – der zentrale Knotenpunkt fĂŒr den bidirektionalen Austausch

Mit dem Aufbau der Datensynchronisation wird die Grundlage und der wesentlichste Teil eines modernen Datenmanagements gesetzt. Dabei ist wichtig darauf zu achten, dass Standards verwendet werden, um eine einfache Integration, Wartung und Weiterentwicklung gewÀhrleisten zu können.

Datensynchronisation ermöglichen dir und deinem Handelsunternehmen, Daten bidirektional und in Echtzeit mit deinen Systemen auszutauschen.

Hierzu gehört unter anderem der Austausch in Anwendungen, wie einem Produktinformationsmanagement (PIM) zum Verwalten der Produktinformationen oder einem Customer Relationship Management (CRM) fĂŒr die vertrieblichen Kundendaten oder Marketinganwendungen.

Zudem mĂŒssen Kundensysteme wie Bestellplattformen oder Shopsysteme als auch Kundeninformationssysteme zum Verwalten von den eigenen Daten und Informationen mit Daten beliefert werden.

Wesentlich dabei ist jedoch nicht nur der Austausch in eine Richtung. Zentrale Datensynchronisation synchronisiert auch Daten wie Bestellungen, Adressen und wesentliche Kundendaten aus Kundensystemen, wie Enterprise Resource Planning (ERP) oder Shopsystemen in die Anwendungen in deinem Unternehmen.

Ein bidirektionaler Austausch ist essentiell, um die DatenaktualitÀt in allen Systemen zu gewÀhrleisten.

Tools: Kafka, Confluent, Airbyte, Matillion

2. Speicherung: Die zentrale Datenhaltung und -speicherung in einem Data Warehouse

Die Kosten von Cloud-Datenspeichern haben sich in der Vergangenheit drastisch reduziert. Demnach werden in der Regel alle Unternehmensdaten in einem Data Warehouse gespeichert. Diese werden meist ĂŒber ELT-Prozesse in der Datenintegration zur weiteren Verwendung unstrukturiert in einem Cloud-basierten Data Warehouse gespeichert.

Anschließend können diese Daten fĂŒr BI (Business Intelligence)– oder Machine Learning-AktivitĂ€ten verwendet werden, um Analysen zu erstellen und die Daten wertschöpfend zu nutzen.

Tools: Snowflake, Google BigQuery, Amazon Redshift

3. Visualisierung: Nutze die Potentiale deiner Daten durch Business Intelligence

Die Daten aus dem Warehouse können nun bereits genutzt werden.

Mit einem Business Intelligence (BI) Tool können Unternehmen ihre Daten analysieren und anschließend mithilfe von Dashboards visualisieren.

Der Zugriff auf Daten ĂŒber BI-Anwendungen eröffnet dir und deinen Mitarbeitenden ganz neue Möglichkeiten. Der Außendienst kann sich besser auf GesprĂ€che vorbereiten, um den Kund:innen eine umfassendere Beratung zu bieten. Der Innendienst wiederum kann die UnterstĂŒtzung und das Anleiten der Kund:innen am Telefon verbessern. Das Management bekommt Reports und Informationen zu vergangenen, aktuellen und kommenden Ereignissen.

Die Zugriffsmöglichkeit fĂŒr alle Mitarbeitenden im Unternehmen sollte dabei dringend gewĂ€hrleistet sein. FĂŒr alle Personen im Unternehmen sollten datenbasierte Entscheidungen möglich sein. Durch die entsprechende BI-Anwendung wird die Self-Service-MentalitĂ€t im Unternehmen stark gefördert.

Tools: Metabase, Power BI, Tableau

Wrap Up

Die Integration der Datensynchronisation ist im Wesentlichen der entscheidende Grundstein fĂŒr ein modernes Datenmanagement. Um den der Wert deiner Daten und des modernen Datenmanagements noch weiter auszuschöpfen und dir und deinem Team neue Möglichkeiten zu eröffnen, benötigt es einer zentralen Datenspeicherung fĂŒr alle relevanten Unternehmensdaten, als auch der Visualisierung und Auswertung deiner Daten.

Categories
Blog

5 Use-Cases fĂŒr HĂ€ndler mit Daten in Echtzeit

đŸ‘‰đŸŒ Bestandsmanagement – Echtzeit-Informationen ĂŒber LagerbestĂ€nde und Verkaufszahlen ermöglichen es Unternehmen, schnell auf VerĂ€nderungen in der Nachfrage und im Angebot zu reagieren und LieferengpĂ€sse zu vermeiden.

âœŒđŸŒ Preisanpassungen – In schnelllebigen MĂ€rkten, wie dem Handel, können Echtzeit-Daten dabei helfen, Preise an aktuelle Marktbedingungen anzupassen und die Nachfrage zu steigern. Gerade im B2B sind individuelle und kundenspezifische Preisanpassungen in Echtzeit essentiell.

đŸ‘‰đŸŒ Personalisierung – Echtzeitdaten ermöglichen es Unternehmen, das Verhalten ihrer Kunden in Echtzeit zu analysieren und auf dieser Basis personalisierte Angebote und Dienstleistungen zu erstellen.

đŸ‘‰đŸŒ Omnichannel – Echtzeitdaten sind fĂŒr die Verzahnung der KanĂ€le entscheidend. Gerade, wenn ship-from-store, connected retail (Bez. Zalando), connected commerce (Bez. Otto) oder click-and-collect angeboten werden.

đŸ‘‰đŸŒ Marketing – Echtzeitdaten ermöglichen es Unternehmen, ihre Marketingkampagnen in Echtzeit zu optimieren und auf VerĂ€nderungen in der Nachfrage zu reagieren.

Insgesamt sind Echtzeitdaten ein leistungsfĂ€higes Instrument fĂŒr den Handel. Echtzeitdaten ermöglichen HĂ€ndlern, fundierte und rechtzeitige Entscheidungen zu treffen, um die Effizienz zu verbessern, Kosten zu minimieren und die UmsĂ€tze zu steigern.

Categories
Blog

Datenaustausch ĂŒber Messaging-Systeme

Die Systemlandschaft wird zunehmend komplexer. LĂ€ngst werden Arbeitsprozesse digital in vielen unterschiedlichen Systemen bearbeitet. Eine Entwicklung weg von den monolithischen ERP-Giganten, welche versuchen, alle Prozesse in einem geschlossenen System abzubilden, hin zu agilen Satellitensystemen, die jeweils auf den entsprechenden Anwendungsfall spezialisiert sind – diese Herangehensweise wird auch „Best of Breed“ genannt. Damit solch eine moderne Infrastruktur funktioniert, muss die Kommunikation und der Austausch von Daten zwischen den Systemen reibungslos funktionieren. Dabei stoßen die Systeme, bzw. die Art der Kommunikation zwischen den Systemen immer wieder auf die gleichen Herausforderungen:

Genau wie in einer Lieferkette gibt es einen Produzenten, welcher die Ware aussendet und einen Konsumenten am Ende der Kette, der die Ware entsprechend empfangen soll.

Herausforderung 1: Auslieferung nicht möglich
Stellt man sich den Austausch der Daten vor wie eine Lieferkette, so kann es zum Beispiel vorkommen, dass ein System, welches Daten empfangen und konsumieren soll, aufgrund von Wartungsarbeiten oder einem temporĂ€ren Ausfall nicht zu erreichen ist. 

Das produzierende System kann die Daten nicht erfolgreich ausliefern und stĂ¶ĂŸt schnell an die eigenen KapazitĂ€ten, bevor das empfangende System wieder verfĂŒgbar ist.

Herausforderung 2: Zu kleines Lager

Eine besondere Herausforderung in einer nicht aufeinander abgestimmten Lieferkette ist bspw., wenn das sendende System, die KapazitĂ€ten des EmpfĂ€ngers nicht kennt oder ignoriert. Stell dir vor, ein Lager mit sehr kleiner KapazitĂ€t wĂŒrde unaufhörlich LKW Ladungen neuer Ware geliefert bekommen. Das Lager wĂ€re in kĂŒrzester Zeit ĂŒberfordert und nicht mehr in der Lage, Prozesse einzuhalten. Das Gleiche gilt fĂŒr ein empfangendes System, welches mit Daten ĂŒberhĂ€uft wird – das System ist technisch nicht in der Lage eine zu große Datenflut zu verarbeiten und stĂŒrzt ab (DoS).

Herausforderung 3: Auslieferung ohne Lieferschein

Eine weitere potenzielle Fehlerquelle bei der Auslieferung von Daten, ist, wenn die Auslieferung nicht entsprechend als angenommen quittiert wird, Ă€hnlich wie eine Auslieferung ohne bestĂ€tigten Lieferschein. Das empfangende System beginnt mit der Annahme der Daten und stĂŒrzt plötzlich ab. Das sendende System geht davon aus, dass alles entsprechend verarbeitet wurde, obwohl dies nicht der Fall ist.

Diese und andere Herausforderungen haben oft Fehler zufolge, welche sowohl in einer Lieferkette, als auch im Austausch von Daten, Unzufriedenheit, Unordnung und ggf. verlorenen Umsatz bedeuten. Um diese Probleme zu lösen, setzt man Messaging-Systeme, wie z.B. Apache Kafka ein, die zwischen Sender und EmpfĂ€nger platziert werden. 

Diese könnte man in der Analogie zur Lieferkette mit einer Auftragsverarbeitung vergleichen, die ĂŒberwacht und gemanaged wird. Jeder Auftrag ist eine Message / Nachricht, die vom Sender in das Messaging-System geschrieben wird.

Ist ein Messaging-System nicht nur ein weiteres System in der „Lieferkette“ und warum sollten dort nicht die gleichen Herausforderungen auftauchen?

Ja, es ist ein weiteres Glied in der Kette, jedoch um genau diese Herausforderungen gezielt anzugehen.

Das Messaging-System kann ggĂŒ. anderen Drittsystemen vom Unternehmen selbst oder einem Dienstleister gemanagt werden. Diese Kontrolle hat ein Unternehmen selten ĂŒber alle seine Systeme, da diese oft als Software as a Service betrieben werden oder die Daten direkt in Systeme anderer Unternehmen fließen (z.B. Marktplatzanbindungen oder ERP-Systeme). So kann sichergestellt werden, dass die KapazitĂ€ten auf die eigenen Anforderungen und Datenlast angepasst werden.

Ein Messaging-System ist durch Redundanzen so aufgestellt, dass es als besonders ausfallsicher gilt. Die einzige Aufgabe des Systems ist der Austausch von Daten. Sollte eine Komponente ausfallen, ĂŒbernimmt sofort eine andere identische, um sicherzustellen, dass keine Information verloren gehen kann.

Ein entscheidender Unterschied ist außerdem, dass diese Nachrichten von den empfangenden Systemen abgeholt werden mĂŒssen, und somit sichergestellt wird, dass auch alles korrekt in Empfang genommen wurde. 

Damit bietet ein Messaging-System wie Kafka entscheidende Vorteile ggĂŒ. einem direkten Datenaustausch ĂŒber REST-API. Zudem können die eingesetzten Event-Streams, schnell und einfach fĂŒr weitere Systeme verwendet werden, um Daten in Echtzeit zwischen sĂ€mtlichen Systemen zu synchronisieren.

Wenn du mehr ĂŒber Kafka und Event-Streaming erfahren möchtest:
Was ist Kafka

Categories
Blog

Fehlertoleranz, eines von vielen entscheidenden Vorteilen von Kafka

Stell dir mal vor, du hast deine Anwendungen und Systeme miteinander verbunden und jetzt fÀllt eines oder mehrere dieser Systeme aus, was ist die Folge?

Es scheint trivial, aber eines der grundlegendsten Elemente ist die Sicherstellung und Ausfallsicherheit des Datentransports und der Übertragung von einem System in ein anderes.

In der Regel liegen nicht alle Systeme oder Anwendungen in deiner Hand oder unter deiner Kontrolle. In jedem System kann es passieren, dass Probleme auftreten, die Systeme ausfallen oder ein System gewartet wird, wodurch die Systeme nicht mehr erreichbar sind.

Diese Probleme treten in der Regel plötzlich und ohne Mitteilung des System-Anbieters auf.

Das kann unter anderem zufolge haben:

  • Die Bestellung kommt nicht in deinem ERP oder den Logistik- und Dispositionssystemen an. Dadurch kann die Bestellung nicht, wie vereinbart, ausgeliefert werden.
  • Deine Kund:innen können nicht bestellen, weil die Bestellsysteme nicht die richtigen Informationen bereitstellen oder im schlimmsten Fall sogar ausfallen.

Das sind nur zwei Beispiele von vielen möglichen Szenarien, die zu Unzufriedenheiten der Kund:innen fĂŒhren können oder unnötige AufwĂ€nde fĂŒr den Vertrieb oder das Service-Team zur Folge haben und im schlimmsten Fall sogar in Umsatzverlust resultieren. 

Daher ist es ausschlaggebend, wenn Anwendungen miteinander verbunden sind, dass die Daten in den Zielsystemen ankommen.

Eines von vielen Vorteilen von Kafka und Event-Streams ist die hohe VerfĂŒgbarkeit und Fehlertoleranz.

Was bedeutet das?

Kafka speichert sich, Daten und Events, bis zu einem von dir konfigurierbaren Zeitraum.

Selbst wenn etwas schiefgeht, wie Netzwerkprobleme oder Anwendungs- und SystemausfĂ€lle, weiß Kafka automatisch, an welcher Stelle die Daten gelesen und weiterverarbeitet werden mĂŒssen, sobald die Systeme wieder verfĂŒgbar sind.

Hinzukommend können deine Anwendungen und Systeme gewartet werden, ohne, dass Daten verloren gehen.

Wenn die Systeme wieder hochfahren und online sind, werden die Daten automatisch genau an dem Punkt abgeholt, an dem das System ausgefallen ist.

In einem modernen Datenmanagement ĂŒbernimmt Kafka ĂŒber Event-Streams die Sicherstellung des Datentransports und der Übertragung fĂŒr dich.

Du brauchst dir also keine Gedanken darĂŒber machen, ob die Daten in den Zielsystemen ankommen, sondern kannst dich uneingeschrĂ€nkt auf deine Kund:innen konzentrieren.

Categories
Glossary

Was sind Event-Streams?

Der Begriff “Event” bezieht sich auf ein Ereignis (Event) in Datenquellen wie Datenbanken, mobilen GerĂ€ten, Cloud-Diensten und Softwareanwendungen. “Stream” hingegen ist die fortlaufende Übertragung dieser Ereignisse.

HĂ€ufig werden Event-Streams oder eine Reihe von Ereignissen auch als “Daten-Streams” bezeichnet.

Ein Event kann jede Aktion in Datenquellen oder Anwendungen sein. Zum Beispiel, wenn ein Produkt in den Warenkorb gelegt, ein Kaufprozess abgeschlossen oder Produkte angeschaut wird. Das sind meist direkte Aktionen einer Person. Externe Anwendung wiederum können aber auch Daten direkt in eine Datenbank schreiben oder ĂŒber eine API ĂŒbertragen und darĂŒber ein Event auslösen, ohne, dass eine Aktion einer Person stattfinden muss.

Andere Anwendungen oder Systeme können nun auf diese Events hören oder sie abonnieren und reagieren, sobald diese ausgefĂŒhrt wurden.

Mit den Events aus einem Stream können anschließend Aktionen ausgefĂŒhrt werden, wie bspw. Analysen, Umwandlungen, Anreicherung und Aufnahme.

Event-Streams gewÀhrleisten somit einen kontinuierlichen Datenfluss, damit die richtigen Informationen zur richtigen Zeit am richtigen Ort sind.

Consent Management Platform by Real Cookie Banner