DATA INTELLIGENCE HUB - Für Geschäftskunden

Erleben, was verbindet.

3 Level von Datenproblemen

Datenpools, Governance und Fabriken sorgen für Schlagzeilen. In einem Interview mit dem Data Intelligence Hub und einem seiner Datenanalyseexperten, Prof. Dr. Chris Schlueter Langdon, untersucht die Fachzeitschrift „Produktion“, wie man mit Daten erfolgreich ist.

Data Intelligence Hub als Arbeitsplatz, Austausch, Fabrik, etc.

Der Telekom Data Intelligence Hub befasst sich mit mehreren Kernfragen der Wertschöpfung aus Daten. „Die Probleme mit Daten lassen sich in drei Ebenen unterteilen. Die technische Ebene mit der Frage, wie man die richtigen Daten erhält, die Prozessebene mit Fragen der Prozessqualität und -sicherheit und dann die rechtliche Ebene – einschließlich der Datensouveränität.“

Verwechslung von Rohdaten mit verfeinerten Datenprodukten

„Es wäre sinnvoll, Daten als Produkt zu verstehen und die üblichen Mechanismen darauf anzuwenden: von der Produktentwicklung über das Marketing bis zum Vertrieb.“ Große Industrieunternehmen wie BMW, Daimler und Volkswagen kennen bereits das eine große Geheimnis mit Daten: Daten von Sensoren sind Rohdaten, sie sind nicht bereit für die Anwendungen in künstlicher Intelligenz (KI). Stattdessen müssen Rohdaten verfeinert werden, um sie in KI-fähige Daten oder ein „Datenprodukt“ zu verwandeln. Wie jeder erfahrene Datenwissenschaftler bestätigen kann: Diese Veredelung kann sehr umfangreich, zeitaufwendig und damit teuer sein. Und was das Datenvolumen betrifft, so hat die Party gerade erst begonnen. Neue Technologien wie Internet of Things (IoT)-Sensoren und der 5G-Mobilfunkstandard werden weiteres Datenwachstum auslösen. Wenn man heute schon kämpft, wird es nicht besser werden. Die Datenveredelung erfordert Automatisierung und Skalierbarkeit, um Datenprodukte erschwinglich zu machen, oder kurz gesagt, sie erfordert Datenfabriken. Hier setzt der Data Intelligence Hub an. Es bietet eine umfangreiche Auswahl an Datenaufbereitungs- und Analysetools – und das alles in der Cloud, um sofort skalierbar zu sein.

Verwechslung von Kausalität und Korrelation

„Entgegen der landläufigen Meinung reicht es nicht aus, große Datenmengen mit KI-Tools zu durchsuchen… Keines der Werkzeuge von KI und Machine Learning bietet Kausalität, nur Korrelation.“ Gefordert sind die richtigen Daten. Um zu verstehen, was die richtigen Daten sind, sollte zunächst eine Kausalanalyse mit Fachleuten durchgeführt werden, um die wichtigsten Kausalfaktoren herauszufiltern, die wiederum den Datenbedarf definieren. Trotz großer Mengen an Rohdaten können die richtigen Daten überraschenderweise recht spärlich sein. Viele KI-Anwendungen, wie z.B. die vorausschauende Wartung oder das autonome Fahren, können mehr Daten erfordern, als innerhalb einer einzelnen Abteilung oder eines Unternehmens verfügbar sind. „Auch hier kann der Data Intelligence Hub hilfreich sein, da er noch kleineren Unternehmen mehrere Möglichkeiten bietet: Daten bündeln, teilen und aggregieren… Ein horizontaler Pool wird beispielsweise von einem Maschinenhersteller erstellt, der die Betriebsdaten seiner Produkte kundenübergreifend auswertet.“

Profitieren Sie von offenen Datenstandards

Bisher waren nur wenige Unternehmen bereit, sich an diesen Arten von Datenpools und Sharing zu beteiligen. Was fehlt, sind Austauschoptionen mit Data-Governance-Mechanismen, die ein Gleichgewicht zwischen der Notwendigkeit des Schutzes der eigenen Daten und der Weitergabe an andere herstellen. Auch hier kann der Data Intelligence Hub helfen. Es wurde eine erste Konnektorlösung entwickelt. Anstatt eine proprietäre Lösung zu entwickeln oder das Rad neu zu erfinden, hat der Data Intelligence Hub eine offene Lösung implementiert: „Unsere Kunden profitieren von Data Governance auf Basis von Blueprints der Fraunhofer-Institute.“ Der DIH Connector basiert auf dem Referenzarchitekturmodell (RAM) der International Data Spaces Association (IDSA 2019). IDSA ist ein Zusammenschluss von Industriepartnern, der gegründet wurde, um Data Governance-Architekturlösungen zu fördern, die auf Forschungsarbeiten des deutschen Fraunhofer-Instituts mit Unterstützung der Bundesregierung basieren (Fraunhofer 2015). Zu den Mitgliedern gehören Automobilhersteller wie Volkswagen, Lieferanten wie Bosch und traditionelle Informationstechnologiespezialisten wie IBM.

Dringlichkeit des Datenaustauschs in der Mobilität

Eine wichtige Anwendungsdomäne, die einen umfangreichen Datenaustausch und -pooling erfordert, ist der Bereich der neuen, zukünftigen oder intelligenten Mobilität. Vor allem im städtischen Umfeld scheint der traditionelle, auto-basierte Ansatz einen kritischen Punkt erreicht zu haben, was Staus, Unfälle und Luftverschmutzung betrifft. Die Lösungen umfassen intermodalen Transport, dynamisches Verkehrsmanagement und sogar autonome Shuttles – alle erfordern eine datenanalytische Optimierung, die wiederum Daten von vielen verschiedenen Quellen und Eigentümern erfordert (wir hatten dazu bereits in: „Space Race“ geschrieben).

Referenzen