Data Pipelines

© AdobeStock

Der Erfolg datenzentrierter Optimierungsansätze im Produktionsumfeld ist direkt von der verfügbaren Datenbasis abhängig. Insbesondere für den Einsatz von Künstlicher Intelligenz (KI) mit Machine Learning (ML) Algorithmen müssen Daten schnell, in hoher Qualität und ausreichend Volumen zu Verfügung stehen, um eine hohe Ergebnisgüte zu erzielen zu können. Daraus ergeben sich hohe Anforderungen an die Hardware- und Software-Infrastruktur, die Daten bereitstellt.

Zur Bereitstellung von Daten sind hoch-automatisierte Transfervorgänge, die sogenannten Data Pipelines, essentiell zum Erfüllen der Anforderungen an Daten als Grundlage für KI. Data Pipelines beschreiben die Methodik der Überführung, Aggregation, Transformation und Bereitstellung von Daten zwischen Systemen mit geringstmöglichen manuellen Eingriffen. Je nach Ziel des Anwendungsfalls können Data Pipelines verschiedene Ausprägungen annehmen, beispielsweise:

  • eine Konsolidierung von Maschinen und Betriebsdaten in einem OEE Report
  • Event Streaming von Sensormesswerten zur Vorausschauenden Wartung und Produktionsprozessoptimierung
  • vollautomatisierte Datenbereitstellung für den Einsatz von KI mit ML-Algorithmen (MLOps)

Dabei werden je nach Ausprägung unterschiedliche Architektonische Muster (Lamdba oder Kappa Architektur), Verarbeitungsarten (ETL oder ELT) und Methodiken (Batch oder Stream Processing) angewendet, um die Anforderungen des Anwendungsfalls erfüllen zu können.

Gerade für Data Pipelines in einem Anwendungsfall als Basis für Machine Learning, unter der Verwendung großer Datenmengen und mit dem Ziel, einen kontinuierlichen Betrieb von ML-Lösungen anzustreben (MLOps), ergeben sich zusätzliche Anforderungen. Die Daten sowie jede Transformation in den Pipelines müssen durchgängig im kontinuierlichen Prozess validiert (Data Lineage) und versioniert (Data Versioning) werden, damit Daten nur reproduzierbar und schemakonform für das Training von datenbasierten Modellen eingesetzt werden. Vor allem muss sichergestellt werden, dass Daten und deren statistische Eigenschaften während des Trainings- und Produktiv-Einsatzes (wo ggfs. Re-Training notwendig ist) vergleichbar sind, sodass die Vorhersagequalität der Anwendung konstant sichergestellt ist. Dabei sind zusätzlich rechtliche Rahmenbedingungen wie Daten- und Persönlichkeitsschutz in Entwicklungs- und Produktiv-Umgebung zu bedenken.

 

Unser Leistungsangebot

  • Beurteilung Ihrer verfügbaren Datenquellen, Datenverarbeitungen und die Qualität bereits gesammelter Daten für Anwendungsfälle im Produktionsumfeld
  • Gemeinsame Aufnahme von Anforderungen zur Realisierung Ihrer zukunftsfähigen Daten-Infrastruktur als Enabler für KI mit ML-Algorithmen
  • Individualisierte und anbieterneutrale Abbildung einer funktionalen Ziel-Daten-Infrastruktur mit Software-Tools und Frameworks, wahlweise auf Basis von Open Source oder kommerzieller Software
  • Unterstützung bei der Anbieterauswahl zur Umsetzung der Ziel-Daten-Infrastruktur vor Ort in Ihrer Produktion
  • Implementierung wiederverwendbarer Data Pipelines für Ihre Produktion unter Betrachtung aller technischen, organisatorischen und rechtlichen Aspekte
  • Know-How Transfer in Form von Seminaren oder Workshops zur Befähigung Ihrer Mitarbeiter für die Entwicklung von eigenen Data Pipelines im Produktionsumfeld

 

Ihr Nutzen

  • Verlässliche Datenerhebung und -bereitstellung in Ihrer Produktion durch den Einsatz von branchenbewährten Lösungen mit ganzheitlicher End2End-Sichtweise auf Datenflüsse
  • Reduktion des Aufwands für Transfer und Aufbereitung der Daten in Ihrem Unternehmen durch ganzheitliche Automatisierung
  • Grundlage für den kontinuierlichen Betrieb von datengetriebenen Optimierungsansätzen (MLOps)
  • Transparenz und externe Sichtweise auf den aktuellen Zustand und die Zukunftsfähigkeit Ihrer aktuellen Daten-Infrastruktur durch unser interdisziplinäres Experten-Team
  • Know-How zur Entwicklung von eigenen Data Pipelines auf Basis passender Daten-Infrastruktur

Referenzprojekte

FabOS – Technologische Souveränität für KI-Anwendungen in der Produktion

Das könnte Sie auch interessieren

Kompetenz

Smart Data Starter – mit datenzentrierten Anwendungen digital durchstarten

Kompetenz

MLOps – kontinuierlicher Betrieb von ML-Lösungen (in der Produktion)