{"id":141465,"date":"2024-03-28T09:31:58","date_gmt":"2024-03-28T08:31:58","guid":{"rendered":"https:\/\/e3magpmp.greatsolution.dev\/?p=141465"},"modified":"2024-04-04T15:28:12","modified_gmt":"2024-04-04T13:28:12","slug":"confluent-integration-in-sap-interview-mit-greg-murphy-von-confluent","status":"publish","type":"post","link":"https:\/\/e3magpmp.greatsolution.dev\/de\/confluent-integration-in-sap-interview-mit-greg-murphy-von-confluent\/","title":{"rendered":"Confluent-Integration in SAP: Interview mit Greg Murphy von Confluent"},"content":{"rendered":"\n<p>Greg Murphy ist Staff Product Marketing Manager und konzentriert sich auf die Entwicklung und F\u00f6rderung des Technologiepartnerprogramms von Confluent. Er hilft Kunden dabei, besser zu verstehen, wie die Daten-Streaming-Plattform von Confluent in das gr\u00f6\u00dfere Partner-\u00d6kosystem passt. Bevor er zu Confluent kam, war Greg Murphy in den Bereichen Produktmarketing und Produktmanagement bei Salesforce und Google Cloud t\u00e4tig.<\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter size-full\" data-block-type=\"core\"><img loading=\"lazy\" decoding=\"async\" width=\"576\" height=\"576\" src=\"http:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/Gregs-Headshot-2024.jpeg\" alt=\"\" class=\"wp-image-141466\" srcset=\"https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/Gregs-Headshot-2024.jpeg 576w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/Gregs-Headshot-2024-400x400.jpeg 400w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/Gregs-Headshot-2024-150x150.jpeg 150w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/Gregs-Headshot-2024-100x100.jpeg 100w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/Gregs-Headshot-2024-480x480.jpeg 480w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/Gregs-Headshot-2024-12x12.jpeg 12w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/Gregs-Headshot-2024-24x24.jpeg 24w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/Gregs-Headshot-2024-48x48.jpeg 48w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/Gregs-Headshot-2024-96x96.jpeg 96w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/Gregs-Headshot-2024-300x300.jpeg 300w\" sizes=\"auto, (max-width: 576px) 100vw, 576px\" \/><\/figure><\/div>\n\n\n<p class=\"has-text-align-center\"><em>Greg Murphy, Staff Product Marketing Manager, Confluent<\/em><\/p><div class=\"great-fullsize-content-es\" style=\"margin-left: auto;margin-right: auto;text-align: center;\" id=\"great-3144397000\"><a href=\"https:\/\/e3magpmp.greatsolution.dev\/es\/kit-de-medios\/\" target=\"_blank\" aria-label=\"nl_werbung_800x100_es\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/08\/nl_werbung_800x100_es.jpg\" alt=\"\"  srcset=\"https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/08\/nl_werbung_800x100_es.jpg 800w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/08\/nl_werbung_800x100_es-400x50.jpg 400w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/08\/nl_werbung_800x100_es-768x96.jpg 768w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/08\/nl_werbung_800x100_es-100x13.jpg 100w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/08\/nl_werbung_800x100_es-480x60.jpg 480w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/08\/nl_werbung_800x100_es-640x80.jpg 640w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/08\/nl_werbung_800x100_es-720x90.jpg 720w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/08\/nl_werbung_800x100_es-18x2.jpg 18w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/08\/nl_werbung_800x100_es-600x75.jpg 600w\" sizes=\"(max-width: 800px) 100vw, 800px\" width=\"1000\" height=\"100\"   \/><\/a><\/div><div class=\"great-fullsize-content-en\" id=\"great-875380556\"><a href=\"https:\/\/e3magpmp.greatsolution.dev\/en\/media-kit\/\" target=\"_blank\" aria-label=\"nl_werbung_800x100\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/08\/nl_werbung_800x100.jpg\" alt=\"\"  srcset=\"https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/08\/nl_werbung_800x100.jpg 800w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/08\/nl_werbung_800x100-400x50.jpg 400w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/08\/nl_werbung_800x100-768x96.jpg 768w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/08\/nl_werbung_800x100-100x13.jpg 100w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/08\/nl_werbung_800x100-480x60.jpg 480w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/08\/nl_werbung_800x100-640x80.jpg 640w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/08\/nl_werbung_800x100-720x90.jpg 720w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/08\/nl_werbung_800x100-18x2.jpg 18w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/08\/nl_werbung_800x100-600x75.jpg 600w\" sizes=\"(max-width: 800px) 100vw, 800px\" width=\"1000\" height=\"100\"   \/><\/a><\/div><div class=\"great-fullsize-content-de\" style=\"margin-bottom: 20px;margin-left: auto;margin-right: auto;text-align: center;\" id=\"great-2223786277\"><a href=\"https:\/\/e3magpmp.greatsolution.dev\/steampunk-summit\/\" target=\"_blank\" aria-label=\"steampunk_2024_1_800x100\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2023\/12\/steampunk_2024_1_800x100-scaled.jpg\" alt=\"\"  srcset=\"https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2023\/12\/steampunk_2024_1_800x100-scaled.jpg 1920w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2023\/12\/steampunk_2024_1_800x100-400x50.jpg 400w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2023\/12\/steampunk_2024_1_800x100-1200x150.jpg 1200w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2023\/12\/steampunk_2024_1_800x100-768x96.jpg 768w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2023\/12\/steampunk_2024_1_800x100-100x13.jpg 100w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2023\/12\/steampunk_2024_1_800x100-480x60.jpg 480w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2023\/12\/steampunk_2024_1_800x100-640x80.jpg 640w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2023\/12\/steampunk_2024_1_800x100-720x90.jpg 720w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2023\/12\/steampunk_2024_1_800x100-960x120.jpg 960w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2023\/12\/steampunk_2024_1_800x100-1168x146.jpg 1168w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2023\/12\/steampunk_2024_1_800x100-1440x180.jpg 1440w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2023\/12\/steampunk_2024_1_800x100-1536x192.jpg 1536w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2023\/12\/steampunk_2024_1_800x100-18x2.jpg 18w, https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2023\/12\/steampunk_2024_1_800x100-600x75.jpg 600w\" sizes=\"(max-width: 1920px) 100vw, 1920px\" width=\"2560\" height=\"320\"   \/><\/a><\/div>\n\n\n\n<p><strong>E3: K\u00f6nnen Sie mehr \u00fcber die Integration von Confluent in SAP erz\u00e4hlen?<\/strong><\/p>\n\n\n\n<p>Bei unserem SAP-Angebot konzentrieren wir uns darauf, SAP- und BTP-Kunden die M\u00f6glichkeit zu geben, ihre ERP-Daten \u00fcberall hinzuverschieben. Wenn SAP-Kunden also \u00fcber den Aufbau von Echtzeit-Kundenerfahrungen, moderne Analysen und die Art von L\u00f6sungen nachdenken, die ihr Unternehmen ben\u00f6tigt, bedeutet das nicht immer, dass diese Daten in SAP verbleiben k\u00f6nnen; sie m\u00fcssen nachgelagert in Tools und Anwendungen von Drittanbietern \u00fcbertragen werden, um diese zum Leben zu erwecken.<\/p>\n\n\n\n<p>Wenn wir also in erster Linie dar\u00fcber nachdenken, haben Sie die Optionen hinzugef\u00fcgt, die den SAP-Kunden zur Verf\u00fcgung stehen. Am h\u00e4ufigsten nutzen diese Kunden heute die Open-Source-Technologie Apache Kafka, eine Daten-Streaming-Technologie, die es den Kunden erm\u00f6glicht, diese Aktivit\u00e4ten ereignisbasiert zu erfassen und nachgelagert zu streamen, wohin auch immer sie gehen sollen. Confluent wurde von den Erfindern von Apache Kafka entwickelt. Wir haben eine cloudnative, vollst\u00e4ndig verwaltete Daten-Streaming-Plattform entwickelt, deren Epizentrum Kafka ist. Sie erm\u00f6glicht es Unternehmen, den operativen Overhead, die Kosten und die Herausforderungen bei der Verwaltung der Open-Source-Technologie vollst\u00e4ndig zu eliminieren. Die Kunden sind in der Lage, die Vorteile des Daten-Streamings zu nutzen, sodass sie in der Lage sind, ein intelligentes Echtzeitunternehmen zu werden, das mit diesen ERP-Daten arbeiten kann, wo immer sie ben\u00f6tigt werden.<\/p>\n\n\n\n<p><strong>E3: Was genau macht eine Daten-Streaming-Plattform?<\/strong><\/p>\n\n\n\n<p>Apache Kafka ist eine Open-Source-Technologie, die 2011 bei LinkedIn gegr\u00fcndet wurde. Sie wurde von den Confluent-Gr\u00fcndern ins Leben gerufen, weil es damals einen Bedarf an Echtzeit-Datenbewegungen innerhalb von LinkedIn mit der Technologie gab, die noch nicht existierte. Wenn man also \u00fcber ereignisbasierte Aktivit\u00e4ten nachdenkt \u2013 jedes Mal, wenn jemand auf LinkedIn eine Nachricht likt oder antwortet, also jede Art von Aktivit\u00e4t \u2013, gab es eine Reihe von Systemen, die diese Aktivit\u00e4ten kennenlernen und verstehen wollten, um darauf Prozesse aufbauen zu k\u00f6nnen. Genau daf\u00fcr wurde Kafka urspr\u00fcnglich geschaffen.<\/p>\n\n\n\n<p>Der wichtigste anf\u00e4ngliche Anwendungsfall ist ein PubSub-Modell, bei dem Produzenten in der Lage sind, Nachrichten an die Daten-Streaming-Plattform zu senden, und alle nachgelagerten Verbraucher, die mit diesen Daten in einer Eins-zu-viel-Methode arbeiten wollen, k\u00f6nnen sie abholen und elegant mit diesen Daten arbeiten. Anstelle einer Punkt-zu-Punkt-L\u00f6sung, bei der jede einzelne vorgelagerte Anwendung oder jedes Tool die direkte Integration mit allen nachgelagerten Diensten, die diese Daten ben\u00f6tigen, aufrechterhalten muss, ist dies ein viel eleganteres Modell, das es all diesen Produzenten erm\u00f6glicht, einmal in die Daten-Streaming-Technologie zu produzieren, und dann k\u00f6nnen die Verbraucher so viele dieser Feeds abonnieren oder lesen, wie sie wollen. Es bietet einem Unternehmen eine sehr elegante M\u00f6glichkeit, alle Daten im gesamten Unternehmen zu \u00fcbertragen und ein zentrales Nervensystem in Echtzeit zu schaffen. Das ist Apache Kafka. Im Kern ist es ein verteiltes System.<\/p>\n\n\n\n<p><strong>E3: Wodurch unterscheidet sich die Confluent Data Platform?<\/strong><\/p>\n\n\n\n<p>Apache Kafka ist zwar eine sehr leistungsf\u00e4hige und weit verbreitete Technologie f\u00fcr das Daten-Streaming und die Echtzeitbewegung von Daten im gesamten Unternehmen, aber f\u00fcr die meisten Unternehmen ist es sehr schwierig, sie zu betreiben, zu skalieren und wirklich erfolgreich zu nutzen. Es wird mehrere Jahre dauern, bis die meisten Unternehmen einen echten Nutzen aus der Technologie ziehen k\u00f6nnen, wenn man die Infrastrukturressourcen, die Vollzeitmitarbeiter, die f\u00fcr die Aufrechterhaltung des Betriebs verantwortlich sein werden, sowie die Risiken und Herausforderungen, die damit verbunden sein k\u00f6nnten, ber\u00fccksichtigt.<\/p>\n\n\n\n<p>Kafka ist sehr leistungsf\u00e4hig, aber es handelt sich um eine schwerf\u00e4llige, m\u00fchsame und umfangreiche Technologie, die zwar einen Mehrwert bietet, aber die Teams vom Kerngesch\u00e4ft ablenkt. Ein Einzelh\u00e4ndler beispielsweise, der auf Apache Kafka angewiesen ist, wird von seinen Downstream-Kunden nicht gerade gelobt, weil er Kafka so gut verwaltet. Der Einzelh\u00e4ndler m\u00f6chte sich auf neue, kundenwirksame Anwendungsf\u00e4lle konzentrieren, die die Echtzeitdaten, auf die er Zugriff hat, nutzen. Das Ziel von Confluent ist es, auf dieser Open-Source-Technologie aufzubauen und den Kunden in den verschiedensten Branchen den vollen Wert einer Daten-Streaming-Plattform zu bieten, w\u00e4hrend die Belastungen, die Herausforderungen und die Kosten f\u00fcr die Verwaltung dieser Open-Source-Technologie wegfallen, denn darin liegt nicht der Wert f\u00fcr unsere Kunden und nicht das, was sie auf den Markt bringen wollen. Das ist es, was wir tun. Und genau darin liegt unsere Kompetenz.<\/p>\n\n\n\n<p><strong>E3: K\u00f6nnen Sie das n\u00e4her erl\u00e4utern?<\/strong><\/p>\n\n\n\n<p>Es gibt drei S\u00e4ulen, die die Confluent Data Streaming Platform wirklich von dieser Open-Source-Technologie unterscheiden. Die erste ist, dass Confluent cloudnativ ist. Wir haben Apache Kafka, die Open-Source-Technologie, genommen und sie komplett f\u00fcr die Cloud umgestaltet. Es ist eine gro\u00dfe Investition, diese Technologie in die Cloud zu bringen und es Kunden zu erm\u00f6glichen, mit ein paar Klicks einen Cluster aufzusetzen, der das gesamte Unternehmen betreiben kann.<\/p>\n\n\n\n<p>All diese Funktionen sind in der sogenannten Kora-Engine zusammengefasst. Die Kora-Engine ist die Apache-Kafka-Engine, die speziell f\u00fcr die Cloud entwickelt wurde. Sie ist elastisch skalierbar. So k\u00f6nnen einzelne Cluster bis zu 20 Gigabyte pro Sekunde erreichen. Sie haben unendlich viel Speicherplatz.<\/p>\n\n\n\n<p><strong>E3: K\u00f6nnen Sie ein Beispiel f\u00fcr diese Funktionen nennen und wie sie sich auf die Kunden auswirken?<\/strong><\/p>\n\n\n\n<p>Was wir innerhalb der Kora-Engine haben, ist eine elastische Skalierbarkeit von bis zu 20 Gigabyte pro Sekunde. Die gr\u00f6\u00dften Unternehmen der Welt k\u00f6nnen mit einem einzigen Klick auf Kafka zugreifen und die Verf\u00fcgbarkeit von Kafka hoch- und runterskalieren, w\u00e4hrend es in der Vergangenheit f\u00fcr Unternehmen, die Open Source einsetzen, nur zwei M\u00f6glichkeiten gab. Entweder m\u00fcssten sie Kafka mit einer teuren Infrastruktur ausstatten, um f\u00fcr Spitzenleistungen in der Urlaubssaison oder in besonderen Momenten des Unternehmens ger\u00fcstet zu sein, wobei die Infrastruktur f\u00fcr diese Momente stets auf hohem Niveau bereitst\u00fcnde, was jedoch mit hohen Kosten verbunden w\u00e4re. Oder sie m\u00fcssten ein gro\u00dfes Team haben, das sich Projekten widmet, um sich auf diese Momente vorzubereiten und Infrastruktur hinzuzuf\u00fcgen, und dann auf diese Momente reagieren, indem sie die gesamte Infrastruktur zur\u00fcckziehen, um diese Kosten zu vermeiden.<\/p>\n\n\n\n<p>Wie auch immer man es ausgibt, das ist eine sehr st\u00f6rende und teure Aktivit\u00e4t, auf die Unternehmen vorbereitet sein m\u00fcssen. Innerhalb der Confluent Cloud bedeutet die elastische Skalierung, dass wir automatisch mit der Aktivit\u00e4t ansteigen, um sicherzustellen, dass die Kunden den Durchsatz und die Kapazit\u00e4t haben, die sie ben\u00f6tigen, um jeden Datenverkehr zu bew\u00e4ltigen, der \u00fcber die Plattform kommt. Und wir skalieren dann automatisch herunter, wenn der Datenverkehr nachl\u00e4sst, um sicherzustellen, dass wir kosteneffizient arbeiten und niemand zu viel bezahlen muss.<\/p>\n\n\n\n<p><strong>E3: Wie sieht es mit der Speicherung in der Kora-Engine aus?<\/strong><\/p>\n\n\n\n<p>Innerhalb der Kora-Engine gibt es unendlich viel Speicherplatz. Es sind nicht nur Echtzeitdaten, die durch die Plattform str\u00f6men, auf die die Kunden Zugriff haben. Sie k\u00f6nnen Daten speichern, und zwar eine unendliche Menge bei uns. Wir bieten ein Betriebszeit-SLA (Service Level Agreement) von 99,99 Prozent. Wir geben also hohe Garantien, dass die Plattform verf\u00fcgbar ist. Au\u00dferdem garantieren wir niedrige Latenzzeiten und einen hohen Datendurchsatz \u00fcber die Plattform. Alles in allem haben wir also mit dieser cloudnativen S\u00e4ule die gesamte operative Belastung, die Kosten und die Ablenkung durch Apache Kafka \u00fcbernommen und den gesamten Service in einer Cloud-Erfahrung neu aufgebaut, so wie es ein Kunde erwarten w\u00fcrde.<\/p>\n\n\n\n<p><strong>E3: Was ist die zweite S\u00e4ule, die die Confluent Data Streaming Platform auszeichnet?<\/strong><\/p>\n\n\n\n<p>Die zweite S\u00e4ule ist, dass Confluent vollst\u00e4ndig ist. Unsere Kunden brauchen nicht nur Apache Kafka, um Echtzeiterlebnisse zu schaffen. Was sie brauchen, ist eine komplette Daten-Streaming-Plattform, die es ihnen erm\u00f6glicht, sie um Apache Kafka herum aufzubauen und wirklich effizient zu arbeiten. Dazu geh\u00f6ren auch Datenintegrationen, wie zum Beispiel SAP, die wir anbieten. Wir haben mehr als 120 vorgefertigte Source- und Sync-Integrationen in der Plattform. Daten-Streaming-Technologie erm\u00f6glichen Daten von \u00fcberall her zu holen, wo sie produziert werden, und sie dorthin zu senden, wo sie konsumiert werden m\u00fcssen. Unsere Kunden haben uns berichtet, dass die Entwicklung jeder einzelnen dieser Integrationen bis zu sechs Monate in Anspruch nimmt, zuz\u00fcglich eines lebenslangen Supports und Managements, um sie am Laufen zu halten. F\u00fcr diese vorgefertigte Integration gibt es wiederum \u00fcber 120, sodass die Kunden diese Zeit sparen, automatisch auf alle ben\u00f6tigten Daten zugreifen und die Daten \u00fcberall hinschicken k\u00f6nnen, wo sie ben\u00f6tigt werden.<\/p>\n\n\n\n<p>Da SAP ein Kernangebot ist, wird es direkt in die SAP-Konsole integriert. Es geht nicht nur darum, einfach auf SAP-Daten zuzugreifen und sie an einen der von uns angebotenen Standorte weiterzuleiten. Es gibt auch hochwertige Daten, die sich au\u00dferhalb des SAP-Systems befinden. Denken Sie an IoT-Daten, Daten aus Marketing-Tools, Echtzeit-Klickstr\u00f6me aus dem Internet \u2013 es gibt eine Vielzahl von Datenquellen, die erforderlich sein k\u00f6nnten. Wir erm\u00f6glichen es SAP-Kunden, auf ihre SAP-Daten zuzugreifen und sie in Echtzeit mit all diesen verschiedenen Datenquellen zusammenzuf\u00fchren, sodass sie sie in Echtzeit als vollst\u00e4ndiges Datenprodukt an Datenbanken, Data Warehouses, Data Lakes und KI-ML-Tools weiterleiten k\u00f6nnen.<\/p>\n\n\n\n<p>Es ist die branchenweit einzige vollst\u00e4ndig verwaltete Governance-Suite f\u00fcr Apache Kafka, die hochwertige Daten sichert und gew\u00e4hrleistet, sie aber auch f\u00fcr den Rest des Unternehmens zug\u00e4nglich macht. So wird sichergestellt, dass mehr Personen im Unternehmen Zugang zu Echtzeitdaten haben, um die heute erwarteten Erfahrungen effizient zu gestalten.<\/p>\n\n\n\n<p><strong>E3: Was ist die dritte S\u00e4ule, die die Confluent Data Streaming Platform auszeichnet?<\/strong><\/p>\n\n\n\n<p>Und schlie\u00dflich ist es ein Angebot, das \u00fcberall verf\u00fcgbar ist. Ob in der Cloud \u2013 wir sind auf AWS, Azure GCP, \u00fcber Clouds hinweg verf\u00fcgbar \u2013, die F\u00e4higkeit, all diese Umgebungen miteinander zu verbinden und Daten zwischen ihnen zu senden, oder vor Ort mit der Confluent-Plattform und auch dort die Konnektivit\u00e4t. Also zwischen einer On-premises-Umgebung, einer Cloud-Umgebung und einer hybriden Umgebung, also wirklich ein zentrales Nervensystem. Echtzeitdaten f\u00fcr das gesamte Unternehmen sind das, was letztendlich aufgebaut werden kann.<\/p>\n\n\n\n<p><strong>E3: Wie lassen sich die beiden Plattformen speziell mit SAP BTP, der Business Technology Platform, integrieren?<\/strong><\/p>\n\n\n\n<p>Im Dezember haben wir eine externe Ank\u00fcndigung \u00fcber die Verf\u00fcgbarkeit von Confluent im SAP-Store gemacht. Im Rahmen dieser Ank\u00fcndigung stellten wir unsere direkte Integration zwischen SAP Datasphere, BTP und Confluent Cloud vor.<\/p>\n\n\n\n<p>SAP-Kunden haben damit die M\u00f6glichkeit, direkt von SAP Datasphere aus auf die Confluent-Daten-Streaming-Plattform und vollst\u00e4ndig verwaltete Datenstr\u00f6me zuzugreifen. Wenn ich also mit BTP arbeite, habe ich Zugang zu S\/4 Hana ECC und anderen Tools auf der SAP-Seite. Als Benutzer habe ich dort die M\u00f6glichkeit, das Schreiben dieser Daten in Echtzeit in vollst\u00e4ndig verwaltete Datenstr\u00f6me auf der Confluent-Seite zu konfigurieren. Dadurch werden die ERP-Daten aus SAP herausgeholt und k\u00f6nnen nachgelagert werden, um Anwendungen und Analysen mit Echtzeitdaten zu versorgen.<\/p>\n\n\n\n<p><strong>E3: In welchen F\u00e4llen w\u00e4ren diese Plattformen nicht anwendbar oder ideal f\u00fcr L\u00f6sungen f\u00fcr eine IT-Landschaft?<\/strong><\/p>\n\n\n\n<p>Ich denke, dass die Anwendungsf\u00e4lle sehr breit gef\u00e4chert sind. Sie sind sehr offen. Wir von Confluent sagen, dass die Kunden, mit denen wir zusammenarbeiten, wirklich eine fast unbegrenzte Anzahl von Anwendungsf\u00e4llen erschlossen haben. Wir wissen, dass die L\u00f6sungen, die die Kunden aufbauen wollen, nicht immer ausschlie\u00dflich von Daten aus SAP abh\u00e4ngen, und dass diese Daten allein nicht immer ausschlaggebend f\u00fcr einen Anwendungsfall sind. Daher ist es f\u00fcr SAP-Kunden von entscheidender Bedeutung, dass sie Zugang zu Daten jenseits von BTP und SAP-Systemen haben. Und das ist etwas, das wir auf der Plattform leicht zug\u00e4nglich machen. Es sind nicht nur die vorgefertigten Konnektoren in der Plattform, die es Ihnen erm\u00f6glichen, Daten einfach nach unten zu verschieben. Sie k\u00f6nnen auch zus\u00e4tzliche Daten aufnehmen, sie mit SAP-Daten zusammenf\u00fchren und etwas aufbauen, das vollst\u00e4ndiger und f\u00fcr die nachgelagerte Nutzung bereit ist.<\/p>\n\n\n\n<p><strong>E3: Was ist ein Vorteil der Confluent Data Streaming Platform?<\/strong><\/p>\n\n\n\n<p>F\u00fcr das cloudnative Angebot hat sich gezeigt, dass unser Angebot die Gesamtbetriebskosten f\u00fcr Apache Kafka f\u00fcr Unternehmen um bis zu 60 Prozent senken kann. Wenn wir also \u00fcber den Wert von Daten-Streaming sprechen \u2013 und da gibt es eine gro\u00dfe Nachfrage von SAP-Kunden \u2013, dann wollen sie mit Apache Kafka arbeiten; sie wollen das f\u00fcr ihre Kundenerfahrungen in Echtzeit nutzen. Confluent ist in der Lage, eine bessere L\u00f6sung f\u00fcr Kafka und daneben eine komplette Daten-Streaming-Plattform anzubieten, die die Gesamtbetriebskosten f\u00fcr Kafka um 60 Prozent senken wird. Dadurch gewinnen unsere Kunden Zeit zur\u00fcck, um sich nicht auf die Verwaltung der Infrastruktur zu konzentrieren, sondern auf das, was ihr Gesch\u00e4ft tats\u00e4chlich vorantreiben wird. Und was ihre Kunden, ob intern oder extern, \u00fcberraschen und begeistern wird.<\/p>\n\n\n\n<p><strong>E3: Welche Optionen w\u00fcrden Sie Kunden geben, die nach einer Integration mit S\/4 Hana in der Cloud und mit BTP suchen?<\/strong><\/p>\n\n\n\n<p>Der beste Weg dorthin f\u00fchrt \u00fcber die Datasphere-Integration, die wir entwickelt haben. Diese ist also direkt mit dem Datasphere-Tool innerhalb von BTP verbunden. Sie bezieht Daten aus S\/4 Hana ECC, BW, es gibt eine Liste von mindestens f\u00fcnf, sechs oder sieben verschiedenen Quellen auf der SAP-Seite, aber S\/4 Hana steht dabei an erster Stelle. Das ist wirklich das Flaggschiff auf der SAP-Seite. Das ist also bei Weitem die Empfehlung auf unserer Seite f\u00fcr den einfachsten Weg, diese ERP-Daten freizugeben, um sie auf die Daten-Streaming-Plattform zu bringen und sie nachgelagert dorthin zu verschieben, wo sie ben\u00f6tigt werden. E-Commerce-Bestandsmanagement in Echtzeit, Fertigung, Anwendungsf\u00e4lle IoT, KI, ML \u2013 das wird die Empfehlung von unserer Seite sein.<\/p>\n\n\n\n<p><strong>E3: Was bedeutet das speziell f\u00fcr ERP-Kunden?<\/strong><\/p>\n\n\n\n<p>Wir glauben, dass es f\u00fcr den Markt wichtig ist, das Angebot von Confluent zu verstehen, denn es ist in erster Linie ein intelligentes Echtzeitgesch\u00e4ft, das die nachgelagerten Anwendungen mit ERP-Daten in Echtzeit versorgt. Die drei S\u00e4ulen, auf die wir uns speziell f\u00fcr SAP konzentrieren, sind: erstens, die Erstellung von Echtzeitanwendungen zu geringeren Kosten. Dies geschieht mit der Kora-Engine und der Reduzierung der Gesamtbetriebskosten f\u00fcr Kafka um bis zu 60 Prozent.<\/p>\n\n\n\n<p>Die zweite S\u00e4ule ist das Streaming von SAP-Daten an jeden Ort, an dem sie ben\u00f6tigt werden, und die Zusammenf\u00fchrung mit anderen Quellen. Dies geschieht mit den 120 Konnektoren und der Stream-Verarbeitung mit Apache Flink (einem Open-Source-Batch-Processing-Framework).<\/p>\n\n\n\n<p>Die letzte S\u00e4ule besteht darin, den Kunden die Beibehaltung strenger Sicherheitsstandards zu erm\u00f6glichen, w\u00e4hrend sie von BTP auf die Confluent Cloud umsteigen. Wir verf\u00fcgen \u00fcber eine Reihe von Sicherheitsfunktionen in Unternehmensqualit\u00e4t, die auf der Plattform Standard sind. Zum Beispiel die Verschl\u00fcsselung von Daten im Ruhezustand und bei der \u00dcbertragung. Wir haben eine Reihe von verschiedenen Anpassungsfunktionen, private Netzwerke, Audit-Protokolle, eine ganze Reihe von Sicherheitsfunktionen, die auf der Plattform verf\u00fcgbar sind. Sie verf\u00fcgen \u00fcber einen Standardsatz von Konformit\u00e4tsstandards.<\/p>\n\n\n\n<p><strong>E3: K\u00f6nnen Sie etwas mehr \u00fcber die Governance-Funktionen der Plattform erz\u00e4hlen?<\/strong><\/p>\n\n\n\n<p>Wir bieten die einzige vollst\u00e4ndig verwaltete Governance-Suite der Branche f\u00fcr Apache Kafka. Sie besteht aus mehreren S\u00e4ulen: Stream-Qualit\u00e4t, Stream-Katalog und Stream-Lineage. Die Stream-Qualit\u00e4t ist wahrscheinlich das, woran man am h\u00e4ufigsten denkt, wenn man \u00fcber Stream-Governance nachdenkt, und das sind Datenintegrit\u00e4t, Datenregeln, Vertr\u00e4ge, die sicherstellen, dass f\u00fcr alle Daten, die die Plattform durchlaufen, Standards vorhanden sind. Dadurch wird auch sichergestellt, dass die Daten sp\u00e4ter leicht wiederverwendet werden k\u00f6nnen. Das ist standardm\u00e4\u00dfig vorhanden.<\/p>\n\n\n\n<p>Wir haben auch einen Stream-Katalog und sowohl der Stream-Katalog als auch die Stream-Lineage sind die andere Seite der Governance \u2013 eine modernere Sichtweise der Governance. Sie sind Teil derselben Suite, aber sie konzentrieren sich nicht auf die Sperrung von Daten, sondern auf die \u00d6ffnung dieser Daten f\u00fcr den Stream-Katalog des Unternehmens.<\/p>\n\n\n\n<p>Unser Datenportal erm\u00f6glicht es den Kunden der Daten-Streaming-Plattform zu verstehen, was zum Beispiel die hochwertigen Datenstr\u00f6me sind, die von SAP kommen. W\u00e4hrend wir es also f\u00fcr SAP-Kunden unglaublich einfach machen, diese Datenstr\u00f6me zu erzeugen und sie zu Confluent zu leiten, sorgt der Datenkatalog auf unserer Seite und speziell das Datenportal daf\u00fcr, dass die Kunden innerhalb der Confluent Cloud \u2013 also diejenigen, die unsere Plattform t\u00e4glich nutzen \u2013 diese Datenstr\u00f6me sehen k\u00f6nnen und sich ihrer bewusst sind. Sie wissen, welche Daten zur Verf\u00fcgung stehen, und k\u00f6nnen die gew\u00fcnschten Tools erstellen.<\/p>\n\n\n\n<p><strong>E3: K\u00f6nnen Sie ein Beispiel daf\u00fcr nennen?<\/strong><\/p>\n\n\n\n<p>Ein Beispiel: Wir haben einen BTP-Benutzer und einen Confluent-Cloud-Benutzer. Der Confluent-Cloud-Benutzer k\u00f6nnte \u00fcber den Katalog, den der BTP-Benutzer hat, einen Datenstrom finden, der die IoT-Daten aus der Fertigung enth\u00e4lt, die er haben m\u00f6chte und braucht. Das ist also gro\u00dfartig. Sie haben etwas gefunden, das das Projekt vorantreibt. Die n\u00e4chste Frage k\u00f6nnte jedoch lauten: Woher kommen diese Daten eigentlich? Was ist auf dem Weg dorthin mit ihnen geschehen? Wurden sie mit vielen anderen Daten zusammengef\u00fchrt? Wie kann ich darauf vertrauen, dass ich diese Daten in meinem Projekt verwenden kann?<\/p>\n\n\n\n<p>Stream-Lineage ist der dritte Teil der Governance-Suite, der den Kunden eine End-to-End-Ansicht dieser Datenstr\u00f6me in Form von \u201eGoogle Maps\u201c bietet, damit sie verstehen, woher sie kommen, wohin sie gehen und was mit ihnen auf dem Weg passiert. Sie k\u00f6nnen dies \u00fcber den Katalog tun. Und wenn sie sie mit der Abstammung finden, k\u00f6nnen sie leicht verstehen, was all diese Daten sind und wie sie sie nutzen k\u00f6nnen. Das ist also der dritte Punkt, den ich hinzuf\u00fcgen wollte: die Beibehaltung strenger Sicherheits-, Governance- und Compliance-Standards, die f\u00fcr SAP-Kunden aufrechterhalten werden k\u00f6nnen, wenn sie all diese Daten auf die Confluent-Data-Streaming-Plattform \u00fcbertragen.<\/p>\n\n\n\n<p><strong>E3: Danke f\u00fcr das Interview!<\/strong><\/p>\n\n\n\n<p><a href=\"https:\/\/www.confluent.io\/de-de\/\" target=\"_blank\" rel=\"noreferrer noopener\">confluent.io<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>E3 Magazine sprach mit Greg Murphy, Staff Product Marketing Manager bei Confluent, \u00fcber die Daten-Streaming-Plattform von Confluent und ihre Integration mit SAP Datasphere auf der BTP. <\/p>\n","protected":false},"author":2713,"featured_media":141468,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"rank_math_lock_modified_date":false,"footnotes":""},"categories":[5],"tags":[39870,42268],"coauthors":[43310],"class_list":["post-141465","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-infrastruktur","tag-btp","tag-datasphere"],"featured_image_urls_v2":{"full":["https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/data-streaming.jpg",1000,450,false],"thumbnail":["https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/data-streaming-150x150.jpg",150,150,true],"medium":["https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/data-streaming-400x180.jpg",400,180,true],"medium_large":["https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/data-streaming-768x346.jpg",768,346,true],"large":["https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/data-streaming.jpg",1000,450,false],"image-100":["https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/data-streaming-100x45.jpg",100,45,true],"image-480":["https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/data-streaming-480x216.jpg",480,216,true],"image-640":["https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/data-streaming-640x288.jpg",640,288,true],"image-720":["https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/data-streaming-720x324.jpg",720,324,true],"image-960":["https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/data-streaming-960x432.jpg",960,432,true],"image-1168":["https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/data-streaming.jpg",1000,450,false],"image-1440":["https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/data-streaming.jpg",1000,450,false],"image-1920":["https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/data-streaming.jpg",1000,450,false],"1536x1536":["https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/data-streaming.jpg",1000,450,false],"2048x2048":["https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/data-streaming.jpg",1000,450,false],"trp-custom-language-flag":["https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/data-streaming-18x8.jpg",18,8,true],"bricks_large_16x9":["https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/data-streaming.jpg",1000,450,false],"bricks_large":["https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/data-streaming.jpg",1000,450,false],"bricks_large_square":["https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/data-streaming.jpg",1000,450,false],"bricks_medium":["https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/data-streaming-600x270.jpg",600,270,true],"bricks_medium_square":["https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/data-streaming-600x450.jpg",600,450,true],"profile_24":["https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/data-streaming-24x24.jpg",24,24,true],"profile_48":["https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/data-streaming-48x48.jpg",48,48,true],"profile_96":["https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/data-streaming-96x96.jpg",96,96,true],"profile_150":["https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/data-streaming-150x150.jpg",150,150,true],"profile_300":["https:\/\/e3magpmp.greatsolution.dev\/wp-content\/uploads\/2024\/03\/data-streaming-300x300.jpg",300,300,true]},"post_excerpt_stackable_v2":"<p>E3 Magazine sprach mit Greg Murphy, Staff Product Marketing Manager bei Confluent, \u00fcber die Daten-Streaming-Plattform von Confluent und ihre Integration mit SAP Datasphere auf der BTP. <\/p>\n","category_list_v2":"<a href=\"https:\/\/e3magpmp.greatsolution.dev\/de\/category\/infrastruktur\/\" rel=\"category tag\">IT Management<\/a>","author_info_v2":{"name":"Laura Cepeda","url":"https:\/\/e3magpmp.greatsolution.dev\/de\/author\/laura-cepeda\/"},"comments_num_v2":"0 comments","acf":[],"_links":{"self":[{"href":"https:\/\/e3magpmp.greatsolution.dev\/de\/wp-json\/wp\/v2\/posts\/141465","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/e3magpmp.greatsolution.dev\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/e3magpmp.greatsolution.dev\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/e3magpmp.greatsolution.dev\/de\/wp-json\/wp\/v2\/users\/2713"}],"replies":[{"embeddable":true,"href":"https:\/\/e3magpmp.greatsolution.dev\/de\/wp-json\/wp\/v2\/comments?post=141465"}],"version-history":[{"count":5,"href":"https:\/\/e3magpmp.greatsolution.dev\/de\/wp-json\/wp\/v2\/posts\/141465\/revisions"}],"predecessor-version":[{"id":141620,"href":"https:\/\/e3magpmp.greatsolution.dev\/de\/wp-json\/wp\/v2\/posts\/141465\/revisions\/141620"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/e3magpmp.greatsolution.dev\/de\/wp-json\/wp\/v2\/media\/141468"}],"wp:attachment":[{"href":"https:\/\/e3magpmp.greatsolution.dev\/de\/wp-json\/wp\/v2\/media?parent=141465"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/e3magpmp.greatsolution.dev\/de\/wp-json\/wp\/v2\/categories?post=141465"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/e3magpmp.greatsolution.dev\/de\/wp-json\/wp\/v2\/tags?post=141465"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/e3magpmp.greatsolution.dev\/de\/wp-json\/wp\/v2\/coauthors?post=141465"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}