Categories
Blog

Was sind Integrationen? Und 3 Möglichkeiten, wie man sie implementiert.

Integrationen und Schnittstellen sind für E-Commerce und SaaS-Unternehmen unverzichtbar. Sie bieten eine Vielzahl von Vorteilen, von der Steigerung der Kundenbindung bis zur Unterstützung beim Abschluss neuer Geschäfte.

Die Frage ist also nicht, ob du Integrationen erstellen sollst, sondern wie du dabei vorgehst.

Wir helfen dir, verschiedene Möglichkeiten der Integrationen aufzuzeigen, damit du entscheiden kannst, welche für dein E-Commerce oder SaaS-Unternehmen am sinnvollsten ist.

Doch zunächst wollen wir uns auf unsere Definition von Integrationen einigen und näher darauf eingehen, warum sie wichtig sind.

Definition von Integrationen

Integrationen sind wesentliche Verbindungen, die deine Anwendung mit externen Systemen und Diensten von Drittanbietern schafft. Sie bilden das technische Rückgrat für die nahtlose Interaktion zwischen unterschiedlichen Softwareprodukten und Plattformen. In der Regel nutzen Integrationen Anwendungsprogrammierschnittstellen (APIs), die es deiner Software erlaubt, Daten schnell und zuverlässig auszutauschen und Funktionen anderer Systeme zu nutzen.

Warum sind Integrationen wichtig?

Hier sind einige der wichtigsten Vorteile von Integrationen:

Ermöglicht es dir, mehr Kunden zu gewinnen

Deine Interessenten haben wahrscheinlich mehrere Kriterien, wenn sie deine Software mit Alternativen vergleichen. Dazu zählen oft Integrationen ganz oben auf ihrer Liste. Ein Beispiel: Eine Studie von Gartner hat herausgefunden, dass mehr als 80% der Käufer die Fähigkeit eines Anbieters, “nahtlose Integrationen” zu bieten, als sehr wichtig ansehen.

Features buyers rate "very important" during software evaluation

Hilft dir, in neue Märkte zu expandieren

Wenn du in höhere Marktsegmente vordringen, in weiteren Regionen verkaufen oder in neue Branchen eintreten möchtest, wirst du wahrscheinlich mit neuen Integrationsanforderungen konfrontiert. Wenn du diese erfüllen und über das hinausgehen kannst, was die etablierten Anbieter auf dem Markt bieten, hast du die Chance, nicht nur Fuß zu fassen, sondern auch ein Marktführer zu werden.

Erleichtert die Entwicklung deiner Kunden (Bspw. MRR & ARR Wachstum)

Integrationen sind aufgrund ihres Werts leicht zu monetarisieren.

Du kannst die Integrationen als Zusatzoptionen verkaufen, als Teil von hochwertigeren Paketen anbieten oder sogar eine spezifische Gruppe von Integrationen in einem Paket anbieten, während du in einem anderen weitere hinzufügst. Wir haben gesehen, dass unsere Kunden jeden dieser Ansätze erfolgreich umgesetzt haben. Zum Beispiel beinhaltet eine Plattform für Personalmanagement, Integrationen in ihrem Enterprise-Paket.

Andererseits bietet eine moderne Software für Geschäftsplanung, eine Google Sheets-Integration in ihrem kostenlosen Plan, Standard-Datenintegrationen in ihrem Launch-Plan und Premium-Integrationen in ihrem Growth-Plan an.

Ermöglicht es dir, Kundenzufriedenheit zu erhöhen

Wahrscheinlich wenig überraschend aber laut einer Gartner Studie sind Integrationsprobleme oder fehlende Integrationen der häufigste Grund für Kundenabwanderung (Churn). Anders ausgedrückt, zuverlässige und umfassende Integrationen können dabei helfen, die Kundenzufriedenheit zu erhöhen und damit verbundene Geschäftsverluste zu vermeiden.

Ansätze zur Implementierung von Integrationen

Jetzt, da du weißt, warum Integrationen wichtig sind, ist die nächste Frage, wie genau du sie umsetzen kannst.

Wir werden einige Optionen vorstellen, um deine Entscheidungsfindung zu unterstützen.

In-House Entwicklung

Das bedeutet, dass du deine internen Entwickler beauftragst, APIs von Drittanbietern zu erstellen und zu warten.

Dieser Ansatz hat einige Vorteile. Er ermöglicht es dir, die Zusammenarbeit mit Drittanbietern zu vermeiden und kann handhabbar sein, wenn du nur eine Integration benötigst oder der Umfang begrenzt ist.

In der Realität musst du jedoch wahrscheinlich eine ständig wachsende Anzahl von robusten Integrationen implementieren und pflegen. Wenn du deine Entwickler damit beauftragst, nimmt dies einen großen Teil ihrer Zeit in Anspruch und zwingt sie, andere wichtige Aufgaben zu vernachlässigen.

No-Code-/Low-Code-Integrationstools

No-Code-/Low-Code-Tools sind Plattformen, die den Prozess der Datenintegration vereinfachen wollen. Obwohl No-Code-/Low-Code-Tools ein Schritt in die richtige Richtung sind, lösen sie nicht alle Probleme der internen Entwicklung.

Sie erfordern immer noch einiges an technischem Know-how und zwingen deine Entwickler (oder die deiner Kunden) dazu, die Integrationen zu erstellen und zu verwalten. Hinzukommend fehlen häufig essentielle Integrationen, weshalb viele individuell erstellt werden müssen. Außerdem ist eine große Anzahl von Integrationen, die SaaS Unternehmen benötigen, praktisch unmöglich zu verwalten und weiterzuentwickeln.

Unified API

Eine Unified API ist eine Lösung, die mehrere Einzel-APIs von verschiedenen Diensten in einer Kategorie bündelt. Anstatt jede API einzeln anzubinden, ermöglicht sie es dir, mit nur einer Verbindung auf mehrere Dienste zuzugreifen. Das vereinfacht den Integrationsprozess erheblich, da du nicht jede API separat einrichten und verwalten musst.

Die Integration durch eine Unified API adressiert die Nachteile der anderen Optionen, indem sie es dir ermöglicht, deinen Kunden mit minimalem Aufwand umfangreiche Integrationen bereitzustellen. Zum Beispiel kannst du so die Verbindung mit den wichtigsten E-Commerce Systemen, wie Shopsysteme oder Marktplätze oder ATS-Anbietern bereitstellen, indem du deine SaaS Anwendung einfach an eine Unified API anschließt.

Dadurch kannst du Zeit und Aufwand sparen, die sonst in die Entwicklung und Pflege von einzelnen Integrationen fließen würden. Sie erleichtert es, deine Anwendungen zu skalieren, da du neue Dienste hinzufügen kannst, ohne den bestehenden Code zu ändern. So kannst du dich auf die Verbesserung deiner Produkte konzentrieren und deinen Kunden schneller bessere Dienste anbieten.

Wir wollen dir die Herausforderungen und Abhängigkeit ersparen. Seit 2017 erleichtern wir wichtige Commerce-Integrationen für Mittelständler im Handel, E-Commerce- und SaaS-Unternehmen.

Durch unsere Erfahrung mit Integrationen kannst du dich auf dein Kernprodukt konzentrieren. Wir kümmern uns um die nahtlose Anbindung deiner Kernsysteme und um die Überwachung, Weiterentwicklungen und die Kommunikation mit den 3rd-Party-API-Anbietern.

Categories
Success Story

Der Kunde im Fokus: Wie igefa mit personalisierten Angeboten neue Maßstäbe setzt

Key Facts

  • Führender B2B-Großhändler
    Branche: Hygiene & Reinigungsmittel, PSA und medizinische Hilfsmittel
  • 450.000 Artikel in 1800 Kategorien
  • 500.000 regionale und nationale Kunden
  • 25 Standorte Deutschlandweit
  • 65.000.000 individuelle Preise

Ausgangslage

  • Diverse Systemen, die Daten halten und verarbeiten.
  • Darunter: Eine eigenentwickeltes Warenwirtschaftssystem-Bestandssystem (WaWi/ERP), offener und geschlossener B2B-Shop, Marketingautomation bzw. Customer Data Plattform (CDP).

Ziel

Grundlage für Rückgewinnungs- und zukünftige personalisierte Marketingmaßnahmen über Marketing- bzw. Customer Data Plattform.

Lösung

Daten über Datensynchronisation mit Kafka und Event-Streams aus diversen Systemen zusammengeführt, veredelt und bereitgestellt.


In einer sich immer weiter digitalisierenden Welt haben wir für unseren Kunden und Partner, igefa, ein System entwickelt, das den entscheidenden Wettbewerbsvorteil auf dem Markt bietet.

Daten – sie sind nicht nur ein essentieller Bestandteil in der modernen Wirtschaft, sie sind der Schlüssel für zukünftigen Erfolg. Wir haben dieses Wissen genutzt und mit der Synchronisation diverser Systeme den Grundstein gelegt, um Daten wertstiftend einzusetzen.

Die igefa ist ein führender B2B-Großhändler für Hygiene & Reinigungsmittel, PSA und medizinische Hilfsmittel. Mit 450.000 Artikeln in 1800 Kategorien beliefert igefa etwa eine halbe Million regionale und nationale Kunden. Seit über vier Jahrzehnten setzt das Unternehmen auf hohe Servicestandards und schnelle, flexible Lösungen – Qualität, Nachhaltigkeit und Kundenorientierung sind dabei stets im Fokus.

Doch in einer Zeit, in der 71 Prozent der Verbraucher von Unternehmen erwarten, dass sie als Individuen wahrgenommen und ihre Interessen erkannt werden, reicht das nicht mehr aus. So stellte sich igefa der Herausforderung, in die neue Ära der Personalisierung einzutauchen, die von der zunehmenden Bedeutung von Daten und Technologie angetrieben wird.

Wir entwickelten ein System, das eine Vielzahl von Daten aus unterschiedlichen Quellen zusammenführt, diese Daten veredelt und sie in Emarsys, einer führenden Marketing- und Customer-Data-Plattform, bereitstellt. Unser Ziel war es, igefa zu ermöglichen, personalisierte und gezielte Kommunikationsmaßnahmen durchzuführen, die auf die spezifischen Bedürfnisse und Interessen ihrer Kunden zugeschnitten sind.

Durch den Einsatz modernster Technologien konnten wir erfolgreich 250.000 Kontakte synchronisieren und dabei 36 verschiedene Kunden- und Kontaktinformationen übertragen. Die ständige Synchronisation der Daten ermöglicht es dem Marketingteam von igefa, stets auf dem neuesten Stand der Kundeninformationen zu bleiben und so gezielte, personalisierte Marketingmaßnahmen durchzuführen.

Dieser Übergang zur Personalisierung stellt einen entscheidenden Wettbewerbsvorteil für igefa dar. Denn, Unternehmen, die Personalisierung erfolgreich anwenden, können einen Umsatzzuwachs von 6 bis 10 % erzielen, so eine Studie der Boston Consulting Group. Und laut Accenture kaufen 91 % der Verbraucher eher von Marken, die ihnen relevante Angebote und Empfehlungen bieten.

Mit unserer Unterstützung konnte igefa den Grundstein legen, um in eine neue Ära des Handels einzutauchen und die Möglichkeiten der Datenverarbeitung und gezielten Nutzung voll ausschöpfen. Die Erfolgsgeschichte von igefa zeigt, wie der richtige Einsatz und die richtige Anwendung von Daten im Handel und E-Commerce zu beeindruckendem Erfolg führen kann. 

Der Schlüssel und die Zukunft des Handels ist es, Daten zu verarbeiten und gezielt zu nutzen. Sie ermöglichen es Händlern, ihren Wettbewerbsvorteil auszubauen, bessere Entscheidungen zu treffen, ihre Kunden besser zu verstehen und ihre Geschäftsprozesse zu optimieren. Darüber hinaus eröffnen sie neue Geschäftsmodelle und Umsatzkanäle.

Die Zukunft des Handels liegt in der Nutzung von Daten – und igefa ist bereit, diese Zukunft zu gestalten.

Categories
Blog

Der Paradigmenwechsel: ETL oder ELT welche Datenintegrationsstrategie ist die richtige für dein Unternehmen?

Um den Wert deiner Daten voll auszuschöpfen, ist es entscheidend, eine zentralisierte Datenspeicherung zu haben und gleichzeitig einen flexiblen Zugang zu ermöglichen.

Gerade im Analyse-, Visualisierungs- oder Reporting-Bereich, aber auch dem Marketing ist der Einsatz von ELT essentiell.

In folgendem Blog-Post habe ich für dich die Unterschiede zwischen ETL und ELT, als auch die Vor- und Nachteile festgehalten.

Visualisierung, ein Direktvergleich: ETL vs. ELT
Ein Direktvergleich: ETL vs. ELT

Effiziente Datenintegration: ETL vs. ELT – Unterschiede und Vor- und Nachteile im Vergleich

ETL (Extract, Transform, Load) und ELT (Extract, Load, Transform) sind Methoden der Datenintegration.

The Buchstaben stehen bei beiden Methoden für das Selbe: Extrahieren, Transformieren und Laden

  • Extrahieren: Extrahieren bezieht sich auf den Prozess des Abrufens von Daten aus einer Quelle oder einem Datenproduzenten, wie einer Datenbank, einer XML, Excel oder einem anderen Dateiformat oder einer Softwareanwendung.
  • Transformieren: Unter Transformation versteht man den Prozess der Konvertierung des Formats oder der Struktur eines Datensatzes in das Format eines Zielsystems.
  • Laden: Unter Laden versteht man den Vorgang, einen Datensatz in ein Zielsystem zu überführen.

Die Hauptaufgabe beider Methoden besteht im wesentlichen darin, Daten von einem Ort zum anderen zu übertragen.

Der wichtigste Unterschied, bei ETL werden die Daten vor dem Laden in das Zielsystem umgewandelt, während sie bei ELT erst danach umgewandelt werden.

ETL

ETL ist ein Akronym für “Extrahieren, Transformieren und Laden” und beschreibt die drei Stufen der traditionellen Datenpipeline. Dabei werden Rohdaten aus der Quelle extrahiert, in einem sekundären Verarbeitungsschritt transformiert und anschließend in eine Zieldatenbank geladen.

Diese Methode wurde in den 1970er-Jahren entwickelt und ist nach wie vor bei On-Premise-Datenbanken mit begrenztem Speicher und begrenzter Verarbeitungsleistung weitverbreitet.

ETL Visualisierung
ETL Visualisierung

In der Vergangenheit und vor dem Aufkommen der modernen Cloud war ETL notwendig, weil Speicherplatz und Rechenleistung begrenzt und entsprechend kostenintensiv waren.

ETL ermöglichte es Unternehmen, weniger ihrer knappen technologischen Ressourcen (Rechenleistung und Speicherplatz) zu verwenden. Für alles, was man an Bandbreite und Speicherplatz einsparen konnte, musste man wiederum Unmengen an Geld für Entwickler:innen ausgeben.

Hauptproblem

Das Hauptproblem war der Mangel an Standardisierung. Die Verwendung von ETL bedeutete, dass Daten-Pipelines auf der Grundlage jeder Datenquelle und jedes Ziels meist individuell entworfen und entwickelt werden mussten. Das bedeutete, dass man Entwickler:innen mit den richtigen Fähigkeiten brauchte, um Daten-Pipelines zu erstellen, zu pflegen und weiterzuentwickeln, sobald sich die Datenquellen ändern und weiterentwickeln.

ELT

ETL steht für “Extrahieren, Laden und Transformieren”.

Dabei handelt es sich um eine Methode zur Datenaufnahme, bei der Daten aus mehreren Quellen in ein Cloud-Data-Warehouses – Snowflake, Amazon Redshift und Google BigQuery -, Data Lake oder einen Cloud-Speicher übertragen werden. Von dort aus können die Daten je nach Bedarf für verschiedene Unternehmenszwecke und Anwendungsfälle umgewandelt und verwendet werden.

Im Gegensatz zu ETL müssen beim Extrahieren, Laden und Transformieren (ELT) vor dem Ladevorgang keine Datenumwandlungen vorgenommen werden.

ELT Visualisierung
ELT Visualisierung

Der Nutzen von ELT ist mit der zunehmenden Dynamik, Geschwindigkeit und Menge der Daten explodiert. Und sie wird durch eine zunehmend erschwingliche Cloud-Infrastruktur ermöglicht.

Außerdem erfordert ELT im Gegensatz zu ETL weniger technische Mitarbeitende. Durch die Trennung von Extraktion und Transformation ermöglicht ELT Analysten, Transformationen mit SQL durchzuführen. Diese Idee ist der Schlüssel zum Erfolg von ELT, da sie es mehr Abteilungen ermöglicht, ihren Datenzugriff selbst zu verwalten.

Ein wesentlicher Aspekt, warum ELT so viel weniger arbeitsaufwendig ist, besteht darin, dass es eine größere Standardisierung ermöglicht.

Techniker:innen und Entwickler:innen können auf vorgefertigten Extraktions- und Ladelösungen für gängige Datenquellen aufbauen. Und für individuelle und kompliziertere Datenquellen können sie das Fachwissen externer Anbieter und die standardisierten Grundlagen von bestehenden Systemen zurückgreifen.

Vorteil

  • Weniger Arbeitsaufwendig
  • Kosteneffizienter
  • Geschwindigkeit: Daten und Informationen immer bereit zur Verwendung
  • Weniger Entwickler:innen und Techniker:innen benötigt

Was sind die Vorteile von ELT versus ETL?

Mit der ETL-Methode jedoch, bei der die Daten umgewandelt werden, bevor sie in Ihr Zielsystem geladen werden, gehst du bereits im Vorhinein von Annahmen darüber aus, wie diese Daten in der Zukunft verwendet werden.

Wenn sich die Anforderungen ändern, muss die gesamte ETL-Pipeline angepasst werden. Das erfordert unter Umständen spezielle Kenntnisse, erhöhte Sicherheitsberechtigungen und Unterstützung von Expert:innen.

Das ETL-Paradigma entstand in den 1970er Jahren und wurde in der Vergangenheit verwendet, um Daten zu entfernen und/oder zu ändern, bevor sie an ein Ziel gesendet wurden. Das Entfernen von Daten war in der Vergangenheit aufgrund der hohen Kosten für die Rechenleistung und Speicherung notwendig. Die Kosten für die Rechen- und Speicherleistung sind jedoch im Laufe der Jahre drastisch gesunken, wie die folgende Abbildung zeigt. Dadurch sind ELT-Pipelines, die sowohl die Rohdaten als auch die umgewandelten Daten am Zielort speichern, wirtschaftlich rentabel geworden.

Historical computer memory and storage costs

Im Gegensatz zu ETL entspricht der ELT-Ansatz der Realität des sich schnell ändernden Datenbedarfs. Da der ELT-Prozess die Daten nach dem Laden umwandelt, ist es nicht erforderlich, im Voraus genau zu wissen, wie die Daten verwendet werden – neue Umwandlungen können an den Rohdaten vorgenommen werden, wenn der Bedarf entsteht.

Darüber hinaus können Analysten immer auf die ursprünglichen Rohdaten zugreifen, da deren Integrität durch nachfolgende Transformationen nicht beeinträchtigt wird.

Dies gibt den Analysten Unabhängigkeit von den Entwicklern und der IT, da es nicht notwendig ist, die Pipelines zu ändern. Wenn am Zielort eine unveränderte Rohfassung der Daten vorhanden ist, können diese Daten umgewandelt werden, ohne dass eine erneute Synchronisierung der Daten aus den Quellsystemen erforderlich ist.

Fazit

Der wichtigste Unterschied zwischen beiden Methoden besteht darin, dass bei ETL die Daten vor dem Laden in das Zielsystem transformiert werden, während sie bei ELT erst nach dem Laden umgewandelt werden.

Businessanforderungen und Anforderungen an die Datenanalyse ändern sich schnell.

Daher ist ELT gerade im Analyse, Visualisierungs- oder Reporting-Bereich, aber auch Marketing essentiell.

Daten-Endanwender:innen, also Personen, die Reports erstellen, (Daten Analysten, Business Analysten, das Marketing etc.) benötigen einen flexiblen Zugriff auf diese Daten.

Denn nur dadurch können deine Daten wertstiftend für Visualisierungen und Reports für den Vertrieb, das Service-Team und das Management oder das Marketing, für Marketingmaßnahmen und Marketingautomatisierung eingesetzt werden.

Daher lässt sich im Fazit sagen, dass ETL und ELT beide Methoden zur Integration von Daten sind, die in verschiedenen Szenarien eingesetzt werden können.

Categories
Blog Datenmanagement

In 3 Schritten zu deinem modernen Datenmanagement im Handel

Was sind die entscheidenden Komponenten, um heute modernes Datenmanagement in dein Handelsunternehmen zu integrieren?

Um heute modernes Datenmanagement zu betreiben, benötigt man eine Vielzahl von unterschiedlichen Anwendungen aus dem „modern data stack“. Diese Anwendungen bewegen sich meist in ihrer eigenen Kategorie und erfüllen einen speziellen Zweck.

Was sind die entscheidenden Komponenten, um ein holistisches Gesamtkonstrukt zu erschaffen und die Grundlage für ein modernes Datenmanagement zu bilden.

Durch die folgenden drei Schritte eröffnest du dir und deinem Handelsunternehmen ganz neue Möglichkeiten:

  1. Integration: Datensynchronisation
  2. Speicherung: Data Warehouse
  3. Visualisierung: Business Intelligence

1. Integration: Datensynchronisation – der zentrale Knotenpunkt für den bidirektionalen Austausch

Mit dem Aufbau der Datensynchronisation wird die Grundlage und der wesentlichste Teil eines modernen Datenmanagements gesetzt. Dabei ist wichtig darauf zu achten, dass Standards verwendet werden, um eine einfache Integration, Wartung und Weiterentwicklung gewährleisten zu können.

Datensynchronisation ermöglichen dir und deinem Handelsunternehmen, Daten bidirektional und in Echtzeit mit deinen Systemen auszutauschen.

Hierzu gehört unter anderem der Austausch in Anwendungen, wie einem Produktinformationsmanagement (PIM) zum Verwalten der Produktinformationen oder einem Customer Relationship Management (CRM) für die vertrieblichen Kundendaten oder Marketinganwendungen.

Zudem müssen Kundensysteme wie Bestellplattformen oder Shopsysteme als auch Kundeninformationssysteme zum Verwalten von den eigenen Daten und Informationen mit Daten beliefert werden.

Wesentlich dabei ist jedoch nicht nur der Austausch in eine Richtung. Zentrale Datensynchronisation synchronisiert auch Daten wie Bestellungen, Adressen und wesentliche Kundendaten aus Kundensystemen, wie Enterprise Resource Planning (ERP) oder Shopsystemen in die Anwendungen in deinem Unternehmen.

Ein bidirektionaler Austausch ist essentiell, um die Datenaktualität in allen Systemen zu gewährleisten.

Tools: Kafka, Confluent, Airbyte, Matillion

2. Speicherung: Die zentrale Datenhaltung und -speicherung in einem Data Warehouse

Die Kosten von Cloud-Datenspeichern haben sich in der Vergangenheit drastisch reduziert. Demnach werden in der Regel alle Unternehmensdaten in einem Data Warehouse gespeichert. Diese werden meist über ELT-Prozesse in der Datenintegration zur weiteren Verwendung unstrukturiert in einem Cloud-basierten Data Warehouse gespeichert.

Anschließend können diese Daten für BI (Business Intelligence)– oder Machine Learning-Aktivitäten verwendet werden, um Analysen zu erstellen und die Daten wertschöpfend zu nutzen.

Tools: Snowflake, Google BigQuery, Amazon Redshift

3. Visualisierung: Nutze die Potentiale deiner Daten durch Business Intelligence

Die Daten aus dem Warehouse können nun bereits genutzt werden.

Mit einem Business Intelligence (BI) Tool können Unternehmen ihre Daten analysieren und anschließend mithilfe von Dashboards visualisieren.

Der Zugriff auf Daten über BI-Anwendungen eröffnet dir und deinen Mitarbeitenden ganz neue Möglichkeiten. Der Außendienst kann sich besser auf Gespräche vorbereiten, um den Kund:innen eine umfassendere Beratung zu bieten. Der Innendienst wiederum kann die Unterstützung und das Anleiten der Kund:innen am Telefon verbessern. Das Management bekommt Reports und Informationen zu vergangenen, aktuellen und kommenden Ereignissen.

Die Zugriffsmöglichkeit für alle Mitarbeitenden im Unternehmen sollte dabei dringend gewährleistet sein. Für alle Personen im Unternehmen sollten datenbasierte Entscheidungen möglich sein. Durch die entsprechende BI-Anwendung wird die Self-Service-Mentalität im Unternehmen stark gefördert.

Tools: Metabase, Power BI, Tableau

Wrap Up

Die Integration der Datensynchronisation ist im Wesentlichen der entscheidende Grundstein für ein modernes Datenmanagement. Um den der Wert deiner Daten und des modernen Datenmanagements noch weiter auszuschöpfen und dir und deinem Team neue Möglichkeiten zu eröffnen, benötigt es einer zentralen Datenspeicherung für alle relevanten Unternehmensdaten, als auch der Visualisierung und Auswertung deiner Daten.

Categories
Blog

5 Use-Cases für Händler mit Daten in Echtzeit

👉🏼 Bestandsmanagement – Echtzeit-Informationen über Lagerbestände und Verkaufszahlen ermöglichen es Unternehmen, schnell auf Veränderungen in der Nachfrage und im Angebot zu reagieren und Lieferengpässe zu vermeiden.

✌🏼 Preisanpassungen – In schnelllebigen Märkten, wie dem Handel, können Echtzeit-Daten dabei helfen, Preise an aktuelle Marktbedingungen anzupassen und die Nachfrage zu steigern. Gerade im B2B sind individuelle und kundenspezifische Preisanpassungen in Echtzeit essentiell.

👉🏼 Personalisierung – Echtzeitdaten ermöglichen es Unternehmen, das Verhalten ihrer Kunden in Echtzeit zu analysieren und auf dieser Basis personalisierte Angebote und Dienstleistungen zu erstellen.

👉🏼 Omnichannel – Echtzeitdaten sind für die Verzahnung der Kanäle entscheidend. Gerade, wenn ship-from-store, connected retail (Bez. Zalando), connected commerce (Bez. Otto) oder click-and-collect angeboten werden.

👉🏼 Marketing – Echtzeitdaten ermöglichen es Unternehmen, ihre Marketingkampagnen in Echtzeit zu optimieren und auf Veränderungen in der Nachfrage zu reagieren.

Insgesamt sind Echtzeitdaten ein leistungsfähiges Instrument für den Handel. Echtzeitdaten ermöglichen Händlern, fundierte und rechtzeitige Entscheidungen zu treffen, um die Effizienz zu verbessern, Kosten zu minimieren und die Umsätze zu steigern.

Categories
Blog

Datenaustausch über Messaging-Systeme

Die Systemlandschaft wird zunehmend komplexer. Längst werden Arbeitsprozesse digital in vielen unterschiedlichen Systemen bearbeitet. Eine Entwicklung weg von den monolithischen ERP-Giganten, welche versuchen, alle Prozesse in einem geschlossenen System abzubilden, hin zu agilen Satellitensystemen, die jeweils auf den entsprechenden Anwendungsfall spezialisiert sind – diese Herangehensweise wird auch „Best of Breed“ genannt. Damit solch eine moderne Infrastruktur funktioniert, muss die Kommunikation und der Austausch von Daten zwischen den Systemen reibungslos funktionieren. Dabei stoßen die Systeme, bzw. die Art der Kommunikation zwischen den Systemen immer wieder auf die gleichen Herausforderungen:

Genau wie in einer Lieferkette gibt es einen Produzenten, welcher die Ware aussendet und einen Konsumenten am Ende der Kette, der die Ware entsprechend empfangen soll.

Herausforderung 1: Auslieferung nicht möglich
Stellt man sich den Austausch der Daten vor wie eine Lieferkette, so kann es zum Beispiel vorkommen, dass ein System, welches Daten empfangen und konsumieren soll, aufgrund von Wartungsarbeiten oder einem temporären Ausfall nicht zu erreichen ist. 

Das produzierende System kann die Daten nicht erfolgreich ausliefern und stößt schnell an die eigenen Kapazitäten, bevor das empfangende System wieder verfügbar ist.

Herausforderung 2: Zu kleines Lager

Eine besondere Herausforderung in einer nicht aufeinander abgestimmten Lieferkette ist bspw., wenn das sendende System, die Kapazitäten des Empfängers nicht kennt oder ignoriert. Stell dir vor, ein Lager mit sehr kleiner Kapazität würde unaufhörlich LKW Ladungen neuer Ware geliefert bekommen. Das Lager wäre in kürzester Zeit überfordert und nicht mehr in der Lage, Prozesse einzuhalten. Das Gleiche gilt für ein empfangendes System, welches mit Daten überhäuft wird – das System ist technisch nicht in der Lage eine zu große Datenflut zu verarbeiten und stürzt ab (DoS).

Herausforderung 3: Auslieferung ohne Lieferschein

Eine weitere potenzielle Fehlerquelle bei der Auslieferung von Daten, ist, wenn die Auslieferung nicht entsprechend als angenommen quittiert wird, ähnlich wie eine Auslieferung ohne bestätigten Lieferschein. Das empfangende System beginnt mit der Annahme der Daten und stürzt plötzlich ab. Das sendende System geht davon aus, dass alles entsprechend verarbeitet wurde, obwohl dies nicht der Fall ist.

Diese und andere Herausforderungen haben oft Fehler zufolge, welche sowohl in einer Lieferkette, als auch im Austausch von Daten, Unzufriedenheit, Unordnung und ggf. verlorenen Umsatz bedeuten. Um diese Probleme zu lösen, setzt man Messaging-Systeme, wie z.B. Apache Kafka ein, die zwischen Sender und Empfänger platziert werden. 

Diese könnte man in der Analogie zur Lieferkette mit einer Auftragsverarbeitung vergleichen, die überwacht und gemanaged wird. Jeder Auftrag ist eine Message / Nachricht, die vom Sender in das Messaging-System geschrieben wird.

Ist ein Messaging-System nicht nur ein weiteres System in der „Lieferkette“ und warum sollten dort nicht die gleichen Herausforderungen auftauchen?

Ja, es ist ein weiteres Glied in der Kette, jedoch um genau diese Herausforderungen gezielt anzugehen.

Das Messaging-System kann ggü. anderen Drittsystemen vom Unternehmen selbst oder einem Dienstleister gemanagt werden. Diese Kontrolle hat ein Unternehmen selten über alle seine Systeme, da diese oft als Software as a Service betrieben werden oder die Daten direkt in Systeme anderer Unternehmen fließen (z.B. Marktplatzanbindungen oder ERP-Systeme). So kann sichergestellt werden, dass die Kapazitäten auf die eigenen Anforderungen und Datenlast angepasst werden.

Ein Messaging-System ist durch Redundanzen so aufgestellt, dass es als besonders ausfallsicher gilt. Die einzige Aufgabe des Systems ist der Austausch von Daten. Sollte eine Komponente ausfallen, übernimmt sofort eine andere identische, um sicherzustellen, dass keine Information verloren gehen kann.

Ein entscheidender Unterschied ist außerdem, dass diese Nachrichten von den empfangenden Systemen abgeholt werden müssen, und somit sichergestellt wird, dass auch alles korrekt in Empfang genommen wurde. 

Damit bietet ein Messaging-System wie Kafka entscheidende Vorteile ggü. einem direkten Datenaustausch über REST-API. Zudem können die eingesetzten Event-Streams, schnell und einfach für weitere Systeme verwendet werden, um Daten in Echtzeit zwischen sämtlichen Systemen zu synchronisieren.

Wenn du mehr über Kafka und Event-Streaming erfahren möchtest:
Was ist Kafka

Categories
Blog

Fehlertoleranz, eines von vielen entscheidenden Vorteilen von Kafka

Stell dir mal vor, du hast deine Anwendungen und Systeme miteinander verbunden und jetzt fällt eines oder mehrere dieser Systeme aus, was ist die Folge?

Es scheint trivial, aber eines der grundlegendsten Elemente ist die Sicherstellung und Ausfallsicherheit des Datentransports und der Übertragung von einem System in ein anderes.

In der Regel liegen nicht alle Systeme oder Anwendungen in deiner Hand oder unter deiner Kontrolle. In jedem System kann es passieren, dass Probleme auftreten, die Systeme ausfallen oder ein System gewartet wird, wodurch die Systeme nicht mehr erreichbar sind.

Diese Probleme treten in der Regel plötzlich und ohne Mitteilung des System-Anbieters auf.

Das kann unter anderem zufolge haben:

  • Die Bestellung kommt nicht in deinem ERP oder den Logistik- und Dispositionssystemen an. Dadurch kann die Bestellung nicht, wie vereinbart, ausgeliefert werden.
  • Deine Kund:innen können nicht bestellen, weil die Bestellsysteme nicht die richtigen Informationen bereitstellen oder im schlimmsten Fall sogar ausfallen.

Das sind nur zwei Beispiele von vielen möglichen Szenarien, die zu Unzufriedenheiten der Kund:innen führen können oder unnötige Aufwände für den Vertrieb oder das Service-Team zur Folge haben und im schlimmsten Fall sogar in Umsatzverlust resultieren. 

Daher ist es ausschlaggebend, wenn Anwendungen miteinander verbunden sind, dass die Daten in den Zielsystemen ankommen.

Eines von vielen Vorteilen von Kafka und Event-Streams ist die hohe Verfügbarkeit und Fehlertoleranz.

Was bedeutet das?

Kafka speichert sich, Daten und Events, bis zu einem von dir konfigurierbaren Zeitraum.

Selbst wenn etwas schiefgeht, wie Netzwerkprobleme oder Anwendungs- und Systemausfälle, weiß Kafka automatisch, an welcher Stelle die Daten gelesen und weiterverarbeitet werden müssen, sobald die Systeme wieder verfügbar sind.

Hinzukommend können deine Anwendungen und Systeme gewartet werden, ohne, dass Daten verloren gehen.

Wenn die Systeme wieder hochfahren und online sind, werden die Daten automatisch genau an dem Punkt abgeholt, an dem das System ausgefallen ist.

In einem modernen Datenmanagement übernimmt Kafka über Event-Streams die Sicherstellung des Datentransports und der Übertragung für dich.

Du brauchst dir also keine Gedanken darüber machen, ob die Daten in den Zielsystemen ankommen, sondern kannst dich uneingeschränkt auf deine Kund:innen konzentrieren.

Categories
Glossary

Was sind Event-Streams?

Der Begriff “Event” bezieht sich auf ein Ereignis (Event) in Datenquellen wie Datenbanken, mobilen Geräten, Cloud-Diensten und Softwareanwendungen. “Stream” hingegen ist die fortlaufende Übertragung dieser Ereignisse.

Häufig werden Event-Streams oder eine Reihe von Ereignissen auch als “Daten-Streams” bezeichnet.

Ein Event kann jede Aktion in Datenquellen oder Anwendungen sein. Zum Beispiel, wenn ein Produkt in den Warenkorb gelegt, ein Kaufprozess abgeschlossen oder Produkte angeschaut wird. Das sind meist direkte Aktionen einer Person. Externe Anwendung wiederum können aber auch Daten direkt in eine Datenbank schreiben oder über eine API übertragen und darüber ein Event auslösen, ohne, dass eine Aktion einer Person stattfinden muss.

Andere Anwendungen oder Systeme können nun auf diese Events hören oder sie abonnieren und reagieren, sobald diese ausgeführt wurden.

Mit den Events aus einem Stream können anschließend Aktionen ausgeführt werden, wie bspw. Analysen, Umwandlungen, Anreicherung und Aufnahme.

Event-Streams gewährleisten somit einen kontinuierlichen Datenfluss, damit die richtigen Informationen zur richtigen Zeit am richtigen Ort sind.

Consent Management Platform by Real Cookie Banner