SAP Data Hub

SAP Data Hub

In meinem heutigen Blogbeitrag möchte ich dir einen groben Überblick über das Thema SAP Data Hub bieten. Laut SAP suchen Unternehmen eine einheitliche offene Lösung, um den Datenfluss in allen ihren Datenlandschaften auszuweiten, zu beschleunigen und für alle Benutzer zugänglich zu machen. Des Weiteren führte SAP eine Studie durch, welche zu dem Resultat kam, dass 74 Prozent der Entscheidungsträger in der IT der Ansicht sind, dass ihre Datenlandschaft so komplex ist, dass sie die Flexibilität beeinträchtigt. 86 Prozent gaben an, dass sie wesentlich mehr aus ihren Daten herausholen könnten, wenn sie nur darauf zugreifen könnten. Das SAP Data Hub soll hierfür die Lösung sein.

Was genau bietet SAP Data Hub?

SAP Data Hub ist eine zentrale Plattform, mit welcher man, durch die Verwendung von SAP VORA, Daten integrieren, die Datenverarbeitung verwalten und Metadaten managen kann. Man errichtet leistungsstarke Pipelines und verwaltet, teilt und verbreitet Daten. Das SAP Data Hub verfügt über diverse Grundeigenschaften, die für Unternehmen sehr vorteilhaft sind.

Ein Beispiel hierfür ist, dass Unternehmen durch ein besseres Verständnis ihrer Datenlandschaft stärker für Chancen und Risiken sensibilisiert werden. Das SAP Data Hub liefert den Abteilungen eines Unternehmens eine detaillierte und leicht verständliche Sicht auf ihre Datenlandschaften. Hierbei kann es sich um SAP-Softwarequellen wie SAP HANA oder SAP-fremde Quellen wie Apache Hadoop handeln. Durch diesen neuen Ansatz können Unternehmen die Nutzung und die Qualität ihrer Daten und Zusammenhänge besser verstehen.

SAP Data Hub

Abbildung 1: SAP Data Hub

Des Weiteren bietet SAP Data Hub eine Ausweitung und schnellere Durchführung von Datenprojekten durch Aufbau von leistungsfähigen Datenverarbeitungspipelines. Durch die einheitliche Umgebung ist es möglich diese Pipelines zu erstellen und auch einfach zu kopieren, zu modifizieren und wiederzuverwenden. Zusätzlich unterstützt SAP Data Hub flexible, datengesteuerte Anwendungen, die aufgrund der Verlagerung der Rechenprozesse in die nativen Umgebungen (Ort der Daten) verlagert werden, und damit schneller zu besseren Resultaten führen.

Doch was sind letztendlich die Hauptargumente für das Data Hub?

Folgende 5 Merkmale sollen diese zeigen:

1. Universal

Durch das Data Hub erlangt man eine umfassende Darstellung des Unternehmens und Big Data durch eine Verdichtung sämtlicher Daten von Datenquellen, Geschäftsanwendungen und -prozessen. Somit wird die Transparenz der Datenlandschaften verbessert und das Identifizieren von Big Data Quellen und deren Nutzbarkeit vereinfacht. Das „landscape management“ dient bei diesem Vorhaben als Managementtool für die Verbindungen, Zonen und Systeme der Landschaften. Mitarbeitern ist es zudem möglich, durch das Cockpit des Data Hubs, ihre tägliche Arbeit durch „Self-Service“ Schnittstellen zu verbessern. Folgende Abbildung zeigt ein solches Cockpit.

Cockpit SAP Data Hub

Abbildung 2: Cockpit des Data Hubs

2. Intelligent

Durch „intelligent discovery“ von Datenbeziehungen wird die Datenqualität anhand von „self-service“ verbessert. Das SAP Data Hub liefert eine grafische Darstellung der Datenzusammenhänge in in Ihrem Unternehmen.  Ihre Daten werden aufbereitet, bereinigt und deren Verbindungen zentral gesteuert (Data Discovery and Preparation). Durch die System- und Metadatenerkennung sind Sie in der Lage, jegliche angebundene Systeme zu durchsuchen (Metadata management and cataloguing) und durch den „modeler“ können die Datensätze bereitgestellt, Datenpipelines modelliert und Metadaten verwaltet werden. So verschafft man sich eine Darstellung des Datenflusses in seinen Systemen und Prozessen.

3. Effizient

Durch SAP Data Hub wird eine effiziente Datenanreicherung ermöglicht. Hierfür werden bei den verteilten Daten undDatenpipelines eine Vielzahl von Berechnungstechniken, wie OLAP und Machine-Learning verwendet. Um diese Funktion durchführen zu können, wird der „modeler“ genutzt.

4. Skalierbarkeit

Man orchestriert die Daten von Anfang bis Ende und verarbeitet siedort, wo sie sich befinden. Mit dieser Möglichkeit werden teure und unnötige Datenbewegungen vermieden. Hierbei spielt es keine Rolle, ob sich die Daten in der Cloud, „on-premise“ oder beidem befinden. Der Status dieser Workflows kann durch „monitoring and scheduling“ sehr gut geplant und überwacht werden.

5. Konform

Sicherheitsrichtlinien werden dynamisch an einem Ort gepflegt, zur Gewährleistung der Erfüllung gesetzlicher und unternehmensinterner Anforderungen. Ihre Metadaten können gemanagt, Qualitätsfehler entdeckt und behoben werden. Durch das „security and policies“ Feature können hierfür notwendige Sicherheitseinstellungen und Richtlinien erstellt werden.

Mit dem Data Hub vereinfacht SAP das Daten-Handling. Über Datenpipelines lenken und steuern Anwender die Datenflüsse und -bearbeitungen, wobei die Daten hierbei stets an ihrem Ablageort bleiben.

Zusammenfassend ergeben sich folgende Vorteile

  • Einfacherer, besser skalierbarer Ansatz für Integration, Management und Steuerung von Datenlandschaften
  • Ausweitung und schnellere Durchführung von datengestützten Projekten durch leistungsfähige Datenverarbeitungspipelines
  • Moderne, offene Architektur unterstützt verschiedenste Datenspeichersysteme
  • Eine zentrale Plattform für das Datenmanagement in ihrem Unternehmen

Es lässt sich bereits jetzt sagen, dass SAP Data Hub wirklich sehr interessant ist für Unternehmen, welche mehr aus ihren Daten herausholen wollen. Undschauen wir noch einen Schritt weiter.

Ein Blick in die Zukunft

SAP Data Hub ermöglicht es dem Unternehmen, den Mehrwert seiner Daten voll zu nutzen. Wenn man sich mit diesem Thema noch weiter beschäftigt, so stolpert man über den Begriff SAP Leonardo. Das SAP Data Hub bildet hierfür zusammen mit SAP Vora und SAP Cloud Plattform Big Data Services die zentralen Bausteine. SAP Leonardo ist die nächste Stufe der Datenauswertung und DAS System für digitale Innovationen. Aber dies ist ein anderes Thema mitwelchem wir uns in einem separaten Blogbeitrag befassen werden.

Fassen wir noch einmal zusammen

Die SAP ebnet mit neuen Lösungen, wie dem SAP Data Hub, ihren Kunden den Weg zu einer Data-Driven Company. Auch werden hierdurch digitale Innovationen ermöglicht. Das SAP Data Hub soll als zentrale Plattform dabei helfen, die sehr komplexen Datenströme beherrschbar beziehungsweise skalierbar zu machen. Zentrale Aufgaben des Systems sind die Datenintegration, -orchestrierung und Data Governance. Die dabei verwendeten Daten können in den verschiedensten Systemen oder Datenbanken liegen. Sowohl Systeme und Datenbanken von SAP, als auch von Drittanbietern, können durch geeignete Schnittstellen Open-Source Technologien mit eingebunden werden, was bisher nur schwer möglich war.

SAP unterstützt seine Kunden mit dem Data Hub darin, die richtigen Schritte zu gehen, um datengestützt agieren zu können. Diese Schritte mögen zwar mühsam erscheinen, werden aber für die zukünftige Wettbewerbsfähigkeit unerlässlich werden.

Quellenangabe der Bilder: SAP SE

Autor dieses Beitrags
Thomas Berblinger Trainee
Tel.: +49 (0) 7031 714 660 0
E-Mail: info@inspiricon.de
Advanced Analytics

Advanced Analytics: der neue Hype in der Fertigungsindustrie

Führungskräfte in der Fertigungsindustrie können durch den Einsatz von Advanced Analytics ihre Prozessschwächen reduzieren und somit Zeit und Geld sparen.

In unserem Artikel möchten wir auf die Hauptaspekte eines Advanced Analytics Projekts eingehen. Er richtet sich an Führungskräfte, CDO’s, Data Scientists, BI Consultants, Entwickler und an alle, die sich für Datenwissenschaft, Analytik und Innovation interessieren.

Beginnen wir mit der Definition des Begriffes Advanced Analytics

Laut Gartner, heißt „Advanced Analytics“ die autonome oder teilautonome Untersuchung von Daten oder Inhalten mit ausgefeilten Techniken und Tools, typischerweise jenseits der traditionellen Business Intelligence (BI), um tiefere Einblicke zu gewinnen, Vorhersagen zu treffen oder Empfehlungen zu generieren. Zu den fortgeschrittenen Analyseverfahren gehören u.a. Data/Text Mining, maschinelles Lernen, Pattern Matching, Forecasting, Visualisierung, semantische Analyse, Sentimentanalyse, Netzwerk- und Clusteranalyse, multivariate Statistik, Graphenanalyse, Simulation, komplexe Ereignisverarbeitung, sowie auch neuronale Netze.

Verbinden wir nun die allgemeine Theorie mit der fertigungsorientierten Anwendbarkeit

Ein tiefer Einblick in die historischen Prozessdaten ist der richtige Punkt, um ein fortgeschrittenes Analyseprojekt zu starten. Hier sollen Muster und Zusammenhänge zwischen den Prozessparametern identifiziert werden. Dies kann als Plattform dienen, auf der diejenigen Faktoren optimiert werden, die den größten Einfluss auf den problematischen KPI haben. Datentechnisch sind globale Hersteller derzeit sehr gut aufgestellt, sie verfügen über riesige Datenmenge in Echtzeit und die Fähigkeit, solche datenwissenschaftlichen Projekte auch durchzuführen.

Der Beginn eines solchen Projekts kann verständlicherweise überwältigend sein

Die meisten Unternehmen begegnen oft individuell sehr unterschiedlichen Probleme im Bereich Datenanalyse, aber eine der wiederkehrenden Situationen, die wir oft angetroffen haben, ist, dass Unternehmen mit langen Produktionszyklen (Monate, vielleicht sogar Jahre) in einigen Fällen zu wenig Daten haben, um statistisch aussagekräftig zu sein. Ein empfehlenswerter Ansatz in solchen Fällen ist die langfristige Berücksichtigung dieser Situation. Verantwortliche Führungskräfte sollten darauf bestehen, zunehmend in Systeme und Methoden zu investieren, die es ermöglichen, mehr Daten über einen bestimmten komplexen Prozess zu sammeln und damit die Datenanalysen auf diesen Prozess anwenden zu können.

Wollen wir nun versuchen, von der Theorie zur Praxis überzugehen und uns auf ein konkretes Szenario zu konzentrieren

Nehmen wir zum Beispiel ein echtes Projekt, an dem wir kürzlich gearbeitet haben. Das Projektziel war es, verwertbare Informationen im Zusammenhang mit einem bestimmten Fehler in der Produktionslinie eines großen Herstellers von elektronischen Komponenten zu entdecken.  Wie zu erwarten, muss diese Projektart sehr agil angegangen werden. Eine Hypothese, die vielleicht zunächst Teil des Projektkerns war, kann in wenigen Stunden widerlegt werden. Man kann jederzeit wieder ganz am Anfang stehen.

Dieser Aspekt kann Auswirkungen auf verschiedene Faktoren haben, wie zum Beispiel das Projektteam, ausgewählte Methoden oder Technologien. Wir empfehlen daher,  die folgenden Punkte unbedingt zu berücksichtigen:

  • Das Team sollte so agil und flexibel wie möglich sein
  • Idealerweise sollten auch die eingesetzten Technologien so agile freundlich wie möglich sein

Auf die Auswahl des richtigen Teams und der richtigen Technologien haben natürlich auch immer andere Faktoren, wie das spezifische Szenario, das Budget, die Qualifikation der Teammitglieder und die verfügbare Infrastruktur einen Einfluss und können diese gegebenenfalls einschränken.

In unserem Fall war die Ausgangsposition, dass wir sowohl über Kenntnisse in SAP- als auch in Python-basierten Technologien verfügen, was ideal ist. Auch aus Infrastruktursicht konnten wir, für dieses spezifisches Projekt zwischen den beiden Technologien wählen. Die Wahl richtete sich schlußendlich nach der Agilität der Lösung und der Unterstützung der Entwickler-Community. Am Ende unseres Artikels werden wir die verwendeten Technologien noch vorstellen.

 Methodologie

Wenn man ein Standard-Prozessmodell zur Definition seiner Sprints verwenden möchte, gibt es zwei Hauptoptionen, die man nutzen kann:

  • Man kann seine Sprints basierend auf CRISP – DM (Cross-industry Standard Process for Data Mining) bestimmen

Advanced Analytics

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Abbildung 1: Cross-industry Standard Process for Data Mining (CRISP – DM )

  • Oder man verwendet da ASUM – DM (Analytics Solutions Unified Method) als Standard-Prozessmodell

Analytic Solution Unified Method

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Abbildung 2: Analytic Solution Unified Method (ASUM) 

Hierbei gibt es keine richtige oder falsche Option, diese Liste ist nicht vollständig und eine maßgeschneiderte Lösung, basierend auf einer Standardmethode, kann oftmals zu besseren Ergebnissen führen.

Angewandte Techniken

Die wichtigsten Techniken, welche wir in unserem Projekt eingesetzt haben, sind in folgender Übersicht von McKinsey dargestellt.

Tools Advanced Analytics

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Abbildung 3: Wichtige Technicken von McKinsey

Maßgeschneiderte Techniken

Zusätzlich zu den Grundtechniken muss man dann gegebenenfalls noch einen Schritt weiter gehen. Zum Beispiel durch eineAnalyse von Simulation vs. Korrelation. In unserem Fall sah eine Korrelationsanalyse sehr vielversprechend aus, aber uns fehlten die Daten, um die Korrelation richtig zu isolieren.

In diesem Fall ist es uns gelungen, die Funktion auszumachen, die die jeweilige Trendlinie ausgibt und sie mit einer bestehenden Hypothese zu verbinden. Die auf der Simulation basierende Hypothese bildete die Trendlinien ab, womit die Hypothese validiert wurde.

Werfen wir nun einen Blick auf einige unserer erzielten Ergebnisse

Ein Teil der verwertbaren Informationen, die wir erhalten haben, resultiert aus dem Zusammenspiel aus der Expertise des Kundenund unseres datenwissenschaftlichen Wissens. Die Resultate waren vor allem die folgenden:

  • Identifizierung und Eingrenzung des Fehleraufkommens auf nur drei Produkte (verwendete Technik – Data Visualization
  • Der Kunde konnte infolgedessen die Arbeitsbelastung seiner Maschinen anhand von Kennzahlen zur Fehlerquote optimieren (verwendete Technik – Data Visualization, Significance testing)
  • Es wurden Trends und Zusammenhänge zwischen den Verpackungsparametern und der Fehlerquote identifiziert (verwendete Technik – Correlation Analysis)
  • Durch Simulationen haben konnten wir eine Hypothese validieren, die auf die Prozessstufe und den Wafer verweist, an welchem der Fehler auftritt (verwendete Technik – Simulation vs Correlation Analysis)

Schlussfolgerung nach Übergabe unserer Lösung

Das Projekt ermöglichte  den Mitarbeitern des Kunden, mehr faktenbasierte Diskussionen zu führen und die tatsächlichen Auswirkungen verschiedener Parameter zu vergleichen, bevor sie Maßnahmen zur Produktivitätssteigerung ergreifen.

Das Wichtigste aber war, dass sie den Fertigungsprozess dynamisch optimieren konnten, indem sie Experimente zur Produktionsoptimierung aufbauten.

Unsere Data Science Ziele dienen letztlich der Strukturierung großer Datenmengen, der Suche nach überzeugenden Mustern und schließlich der Anpassung an den jeweiligen Bedarf im Unternehmen (Daten ® Wissen ® verwertbare Intelligenz).

Wie versprochen, werfen wir nun endlich auch einen Blick auf unser Setup

Kerntechnologien

  • Python
  • Jupyter Notebook – webbasierte Python-Umgebung
  • Anaconda – Paket- und Umgebungsmanagementund Python-Distribution
  • Pandas – Python Bibliothek für Datenmanipulation, Slicing & Dicing
  • NumPy – Programmbibliothek für Python. Unterstützung für große, mehrdimensionale Arrays und Matrizen, zusammen mit einer großen Sammlung von mathematischen Funktionen auf hohem Niveau, um auf diesen Arrays zu arbeiten.
  • Bokeh – Visualisierungsbibliothek: interaktiv verwendet war es ein großes Plus (besonders nützlich war die Zoom-Funktionalität). Es Es sind einige andere Bibliotheken verfügbar, die einfacher zu benutzen sind und den Anforderungen ebenfalls entsprechen könnten, aber selbst wenn Bokeh ein wenig komplex ist, sind die Funktionen, die es bietet, großartig und sehr gut anpassbar. Wir können es sehr empfehlen.
  • SciPy – Open-Source Umgebung für wissenschaftliche und technische Berechungen.
  • Scikit-learn– eine kostenlose Machine Learning Software-Bibliothek -. Sie bietet verschiedene Klassifikations-, Regressions– und Clustering-Algorithmen, darunter Support-Vektor-Maschinen, Random Forest, Gradient Boosting, k-means und DBSCAN, und ist so konzipiert, dass sie mit den numerischen und wissenschaftlichen Python-Bibliotheken NumPy und SciPy

Sekundäre Technologien:

  • SAP Hana
  • SAP Lumira Discovery
  • Orange – Open-Source-Datenvisualisierungs-, Machine Learning und Data-Mining-Toolkit.

Die technisch versierten unter Euch können auch die nächste Datei herunterladen, in der wir einige Codeschnipsel und Notizen zusammengestellt haben, damit ihr einen Eindruck davon bekommt, was diese Art der Entwicklung alles beinhaltet.

Du möchtest mehr über unsere Methoden und Projekte erfahren oder können wir sonst noch etwas für Dich tun? Besuche unseren Blog für regelmäßige Updates. Zögere nicht, uns direkt mit deinen Fragen und deinem Feedback zu kontaktieren. Wir freuen uns auf Deine Kontaktaufnahme!

Quellenangabe der Bilder: McKinsey & Company, IBM, Bosch Software Innovation

Quellen: McKinsey, Gartner, Wikipedia

Autor dieses Beitrags
Ovidiu Costea Consultant SAP BI
Tel.: +49 (0) 7031 714 660 0
E-Mail: cluj@inspiricon.de
LoB-supply-chain-management

Neue Line of Business: Supply Chain Management

Nach vier Jahren dynamischem Wachstums beschließt Inspiricon die Etablierung einer neuen Line of Business „Supply Chain Management“. Durch die Schaffung der Struktur, schärft Inspiricon weiter sein Profil, kombiniert sein Prozesswissen im Bereich Supply Chain Management mit der hohen Expertise im Bereich SAP Business Intelligence und richtet seine Kompetenz verstärkt auf die Nachfrage am Markt aus.

Dabei kann Inspiricon in seiner kurzen Unternehmenshistorie bereits auf zahlreiche Erfolge zurückblicken: Von der Einführung eines globalen Price Tracking Tools im strategischen Einkauf der Giesecke & Devrient GmbH, dem gezielten und konsequenten Projektmanagement und Coaching zur Sicherstellung einer zeitgemäßen Einführung eines Fertigungsleitstandes bei der Kulmbach Töpfer GmbH bis hin zur Optimierung weltweiter Logistikprozesse eines Weltmarktführers im Zuschlagstoffbereich – in den vergangenen Jahren wurden weitere Success Stories geschrieben.

Der Schwerpunkt der Line of Business liegt auf den folgenden Fokusthemen:

Supply Chain Analytics und Performance Measurement:

Supply Chain Analytics erzeugt Transparenz und Visibilität entlang der Lieferkette und hebt damit verbundene Potenziale in der Logistik bzw. dem Supply Chain Management. Typische Ziele sind neben der Verbesserung des Lieferbereitschaftsgrads, Reaktionsfähigkeit und Anpassungsfähigkeit von Supply Chains, oftmals auch die Verkürzung von Auftragsdurchlaufzeiten, die Reduzierung von Beständen, Steigerung der Kapazitätsauslastung oder Verbesserung der Planungsgenauigkeit. Im Mittelpunkt steht dabei die Implementierung und Visualisierung geeigneter Kennzahlen.

Kennzahlen werden dazu genutzt, Zielkonflikte zu lösen, Abweichungen, Chancen und Risiken zu erkennen, geben Aufschluss über Schwachstellen, ermöglichen eine leistungsorientierte Bewertung von Prozessen, Organisationseinheiten oder Mitarbeitern. Sie legen die Grundlage für die Durchführung geeigneter Optimierungsmaßnahmen.

Um die Aussagefähigkeit von Kennzahlen hochzuhalten, ist eine grundsätzliche Beschränkung der Anzahl sinnvoll. Darüber hinaus ist es wichtig Wirkungszusammenhänge erfassen und bewerten zu können. In einem gut funktionierenden Kennzahlensystem können diese bis auf die Ebene operativer Basisdaten vorgenommen werden.

Ausgangsfrage bei der Definition eines solchen Systems ist stets: Welche Kennzahlen lohnt es sich überhaupt auszuwerten? Den Rahmen zur Beantwortung bildet die Supply Chain-Prozesslandschaft- von der Planung, Beschaffung von Rohmaterialien, der Fertigung und Distribution bis hin zum Transport zum Endkunden.

 

Supply-Chan-Analytics-Inspiricon

Supply Chain Analytics umfasst dabei insbesondere auch die Anwendung analytischer Software und Methoden. Besonders im Trend sind die Technologien Big Data, Echtzeitdatenerfassung, Self-Service-BI auch insbesondere Mobilität und Cloud. Diese aktuellen Technologien helfen, die Supply Chain besser zu planen und zu steuern. Neben den fachlichen Anforderungen eines Unternehmens sind IT-strategische Voraussetzungen und Gesichtspunkte zu berücksichtigen, was im Idealfall – d.h. um eine optimale Abdeckung zu erreichen – bei unterschiedlichen Kunden analog zu individuellen Lösungen führen kann und sollte.

Die Services in der neuen Line of Business

Von der Entwicklung einer Performance-Measurement-Strategie und der Definition relevanter Kennzahlen bis hin zu konkreten Implementierung in SAP Technologie –  Inspiricon deckt alle wesentlichen Aspekte eines Supply Chain Analytics Projektes ab. In Folge der Ableitung der Strategie und der vollumfänglichen Erfassung aller Anforderungen werden verschiedene Implementierungsszenarien besprochen, Lösungen konzipiert, umgesetzt und dabei dauerhaft und mit der Zielsetzung abgeglichen.

Durch konkrete Empfehlungen zur Auswahl geeigneter Instrumente und hilfreiche Tipps aus der Praxis, wie diese am geeignetsten bei der Umsetzung in Visualisierungen sowie der Analyse und Bewertung anzuwenden sind, helfen wir unseren Kunden, dafür zu sorgen, dass elementare Informationen und Erkenntnisse auf die richtige Weise, zur richtigen Zeit an die richtige Ort gelangen und somit auch damit nachhaltig zum Unternehmenserfolg beitragen.

Sie überlegen auf SAP BW/4HANA umzusteigen? Ein solcher Releasewechsel bildet immer auch die Chance zur strategischen Neuausrichtung und der Adjustierung Ihres Fachkonzepts.

Im Rahmen unseres Supply Chain Analytics Workshops entwickeln wir mit Ihnen gemeinsamen Ihre zukünftige Performance Measurement Strategie in der Supply Chain und bringen dabei unsere Erfahrungen und Best Practices ein.

Fordern Sie jetzt weitere Informationen zum 1-Tages-Workshop Supply Chain Analytics an.

Supply Chain Digitalisierung und Industrie 4.0:

Mit der zunehmenden Digitalisierung und der weiteren Entwicklung durch das Internet der Dinge entstehen auch neue Herausforderungen im Bereich Business Intelligence. Die Industrie 4.0 legt dabei nicht nur neue Perspektiven und Möglichkeiten offen, die Supply Chain zu gestalten, es entwickeln sich gar gänzlich neue Prozesse und Geschäftsfelder. Wie können Analysetechnologien helfen, diesen Prozess zu unterstützen und wie verändern sich dabei die Anforderungen an moderne BI-Systeme? Welche neuen Möglichkeiten und Erkenntnisse ergeben sich aus der Anwendung dieser auf die sich verändernde Prozesslandschaft?

Eine Studie des Fraunhofer-Instituts für Materialfluss und Logistik (IML) und des Bundesverbands Materialwirtschaft, Einkauf und Logistik e.V. (BME) zum Thema „Einkauf 4.0“ kam in den vergangenen Jahren etwa zu der Einschätzung, dass durch die zunehmende Digitalisierung bereits heute eine vollständige Autonomisierung der operativen Einkaufsprozesse erreicht werden könne. Wesentliche Prozessaktivitäten würden durch moderne Technologien umgesetzt, weshalb sich nicht nur eine Verlagerung des Fokus auf den strategischen Einkauf und damit einhergehend eine gestiegene Erwartungshaltung und zunehmende Komplexität ergäben, sondern auch ein verändertes Rollenbild des Einkäufers selbst. Dieser entwickle sich hin zu einem Schnittstellenmanager oder auch Datenanalysten.

Gleichzeitig ziehen immer mehr moderne Technologien in den Bereich moderner Fertigungsanlagen ein. „Smart Factory“ ist der Begriff aus der Forschung, welcher die Vision einer Produktionsumgebung widerspiegelt, in der sich Fertigungsanlagen ohne menschliche Eingriffe weitgehend selbst organisieren können sollen. Sogenannte cyber-physische Systeme sollen über das Internet der Dinge miteinander kommunizieren und mit Methoden der Künstlichen Intelligenz (KI) wie dem Maschinellen Lernen gesteuert werden.

In der Logistik zeigen verschiedene Umfragen, dass bereits ein Großteil der Verlader – also Unternehmen, die Ladungen an Logistikdienstleister (LSPs) vergeben – und beinahe alle Logistikunternehmen, Technologien zur Positionsbestimmung verwenden. Auch weitere Basistechnologien wie im Bereich Sensor- oder Auto-ID (RFID), Mobilfunk oder Planungs- und Simulationstechnologien erfreuen sich großer Beliebtheit und sind weit verbreitet. Und da diese Technologien im Allgemeinen noch nicht ausgerollt zu sein scheinen bzw. in der Breite eingesetzt werden, wird schnell klar: Die Nutzenpotentiale, die sich durch darauf aufbauende Technologien – wie z.B. im Bereich Big Data – ergeben, sind es noch viel weniger. So manch ein Unternehmen gibt sich dem Ansatz hin, Daten zu sammeln, weiß dabei jedoch noch nicht genau, wie diese überhaupt nutzbar gemacht werden können.

Ziel der der Line of Business SCM bei Inspiricon ist es beide Welten zusammen zu bringen – die Prozesssicht der Supply Chain und moderne Analysetechnologien –und diese zu neuen und innovativen Anwendungsfällen zu kombinieren. Wir beschäftigen uns mit den aktuellen Trends und Herausforderungen der Supply Chain Digitalisierung und blicken dabei auf neuste Technologien rund um Big Data, Advanced Analytics, Machine Learning oder auch Predictive Analytics. Aktuelle Ansätze zielen bereits auf konkrete Verbesserungen im Kontext des Supply Chain Risikomanagements oder auch dem Tracking und Tracing von Transporten ab.

Wokshop-SCA-Inspiricon

Die in der Line of Business definierten Services richten sich an Unternehmen aus Industrie und Handel gleichermaßen wie an die Konsumgüter-, Pharmaindustrie oder weitere Branchen. Sie interessieren sich für unsere Methoden, Projekte oder haben ein anderes Anliegen? Wir halten Sie über unseren Blog auf dem Laufenden. Weiterhin freuen wir uns jederzeit über Ihre Kontaktaufnahme!

Quellenangabe: Supply-Chain-Controlling mit SAP BW (SAP Press)

Autor dieses Beitrags
Daniel Schauwecker Lead Consultant Visualisation
Tel.: +49 (0) 7031 714 660 0
E-Mail: info@inspiricon.de
Maschinelles-Lernen-mit-SAP-HANA-und-SAP-Fiori

Machine Learning mit SAP HANA und SAP Fiori

Was ist maschinelles Lernen und warum ist es so wichtig?

Auf jeden Fall ist es heute in aller Munde. Wir sollten also zunächst einmal klären, warum genau alle Welt so interessiert daran ist.

Der Grund, warum maschinelles Lernen in aller Munde ist, ist die Tatsache, dass es uns in vielen Bereichen gewaltige Fortschritte bringt. Es erlaubt Computern, bestimmte Aufgaben nicht nur auszuführen, sondern die zugrunde liegenden Regeln für die Ausführung dieser Aufgaben im Vorfeld überhaupt erst zu erlernen (also basierend auf historischen Daten aus Erfahrungen zu lernen).

Ein gutes Beispiel ist das Gesundheitswesen. Hier werden Algorithmen für das maschinelle Lernen bereits erfolgreich eingesetzt, um die Anzeichen für ein Reihe schwerer Krankheiten wie zum Beispiel Brustkrebs frühestmöglich zu erkennen und so das Risiko für Patienten zu senken.

Im Finanzwesen kommen Lernalgorithmen zum Einsatz, um Betrugsversuchen auf die Spur zu kommen und Geldwäsche zu bekämpfen. Derartige Algorithmen können Abermillionen von Transaktionen analysieren und dabei verdächtige Muster erkennen und offenlegen.

Im Bereich der Online-Sicherheit werden Algorithmen für das maschinelle Lernen eingesetzt, um verdächtiges Verhalten zu beobachten und Datenschutzverletzungen zu erkennen.

Und nicht zuletzt ist maschinelles Lernen schon längst Teil unseres Alltags. Egal, ob wir mit Siri auf unseren Apple-Geräten oder mit Alexa über unseren Echo kommunizieren, in den sozialen Netzwerken unterwegs sind oder uns von Google Maps leiten lassen, den Kern all dieser Systeme bilden maschinelle Lernalgorithmen.

Auch im Tagesgeschäft vieler Unternehmen sorgen diese Algorithmen für die Automatisierung grundlegender Aufgaben, die früher von Hand verrichtet wurden, so zum Beispiel bei der Prüfung von Rechnungen auf Duplikate, Bestellungen und vielem mehr. …

Im Bereich Business Intelligence nimmt maschinelles Lernen als Bestandteil von Predictive-Analytics-Verfahren ebenfalls ein wichtige Rolle ein und ermöglicht es Mitarbeiten, bestimmte Ergebnisse zu prognostizieren. So können im Vertrieb zum Beispiel Vorhersagen zu Verkaufszahlen getroffen werden und Führungskräfte können verschiedene Prognosen zu den möglichen Auswirkungen von Entscheidungen auswerten und so ihre Entscheidungsfindung unterstützen.

Aber wie funktioniert es?

Machen wir einen kleinen Test:

  • 2 → 4
  • 3 → 9
  • 5 → 25
  • 6 → ?

Die richtige Antwort ist natürlich 36. Und der Grund, warum du das wusstet, ist die Tatsache, dass du ein Muster erkannt hast. Und genau so arbeiten auch maschinelle Lernalgorithmen. Sie werden anhand von Beispieldaten trainiert und lernen auf diesem Wege, Muster zu erkennen und diese Muster den richtigen Reaktionen zuzuordnen (aus Erfahrung lernen). Nach Abschluss des Trainings können wir den Algorithmus mit neuen Daten füttern und erhalten (hoffentlich) die richtige Antwort auf unsere Abfrage.

Natürlich sind diese Algorithmen auf die Bearbeitung von Problemen ausgelegt, die um ein Vielfaches komplexer sind als unser kleiner Test und zudem unzählige Eingabewerte erfordern. So stellen auch komplexe Aufgaben wie Bild- und Spracherkennung oder die Vorhersage möglicher Vertriebsergebnisse anhand von historischen Marktdaten kein Problem dar.

 Maschinelles Lernen mit SAP HANA und Fiori

Als viel diskutiertes Thema weckt maschinelles Lernen natürlich auch Neugier und Experimentierfreude und auch wir bilden da keine Ausnahme. Bei Inspiricon stellte sich vor allem die Frage, welchen Mehrwert dieser neue Trend in unseren angestammten Fachgebieten wie BI, SAP Fiori und SAP HANA entfalten könnte.

Dabei hat sich gezeigt, dass SAP HANA das maschinelle Lernen bereits heute schon sehr beachtlich unterstützt. Mit der SAP HANA Predictive Analytics Library ermöglicht SAP die Verwendung von maschinellen Lernalgorithmen und sogar den Aufbau von neuronalen Netzen. Nutzt man diese Stärken und verbindet sie mit SAP Fiori, lassen sich einige hochinteressante Anwendungen im Bereich der Predictive Analytics realisieren. So konnten wir beispielweise ein kleine Fiori-Anwendung für die Prognose von Verkaufszahlen in den einzelnen Filialen einer Supermarktkette erstellen. Die folgende Abbildung zeigt einen groben Überblick über die Architektur dieser Anwendung:

Architecture-Application-Machine-Learning

Die von uns entwickelte Fiori-Anwendung wäre vor allem für Führungskräfte interessant und würde es ihnen erlauben, innerhalb der Anwendung die Prognose bis zum Jahresende auszuwerten. Wir beschäftigen uns auch weiterhin mit diesem Szenario und arbeiten daran, es um zusätzliche Funktionen wie zum Beispiel “Was-wäre-wenn-Szenarien” zu erweitern, über die sich die Auswirkungen von Management- und Marketingentscheidungen (z. B. Werbeaktionen) auf die prognostizierten Verkaufszahlen untersuchen lassen:

Fiori-Predictive-Demo-Machine-Learning

Fazit

Maschinelles Lernen ist schon mit einem einfachen HANA-Backend möglich!

Zwar gibt es am Markt bereits umfassende und leistungsstarke Tools wie z. B. Tensorflow für neuronale Netzwerke oder SAP Predictive Analytics, aber ihr solltet unbedingt wissen, dass diese für einen Einstieg in das Thema nicht unbedingt zwingend erforderlich sind. Wie schon oben gesagt, erhaltet ihr mit SAP HANA schon alles, was ihr braucht. Und mit SAP Fiori lassen sich UI-Anwendungen realisieren, die das implementierte Szenario optimal unterstützen. Für die vorausgehende Analyse der Daten stehen euch leistungsstarke und zudem kostenlose Analysetools wie Python (Pandas) oder R zur Verfügung. Daraus kann sich ein durchaus sehr attraktiver Ansatz ergeben, der sich auch ohne zusätzliche Lizenz- oder Infrastrukturkosten umsetzen lässt und insbesondere für kleinere Probleme geeignet ist, die auch ohne intensive Datenverarbeitung auskommen.

Für welchen Ansatz ihr euch letzten Endes entscheidet, hängt ganz allein von dem jeweiligen Anwendungsfall ab und sollte vom Entwicklungsteam genau durchdacht sein. Ein wichtiger Faktor, der bei der Entscheidungsfindung nicht außer Acht gelassen werden darf, sind die Kosten, die durch Pflege und Lizenzen entstehen.

Quellenangabe der Bilder:  Inspiricon AG

Autor dieses Beitrags
Gerald Iakobinyi-Pich Solution Architect
Tel.: +49 (0) 7031 714 660 0
E-Mail: cluj@inspiricon.de

Wie Ihr Predictive Analytics als native Hana-Funktion nutzen könnt

In diesem Artikel befassen wir uns eingehend mit den nativen Predictive-Analytics-Möglichkeiten in HANA und erklären dabei Schritt für Schritt, wie ihr die Predictive Analytics Library (PAL), ein Bestandteil der Application Function Library (AFL), einsetzen könnt, um ein mehrfaches lineares Regressionsmodell zu erstellen und anhand dieses Models Prognosen abzuleiten.

Du möchtest mehr zum Thema Predictive Analytics erfahren? Dann kann ich dir zwei unserer vorausgegangenen Artikel empfehlen:

  1. Die Welt der Predictive Analytics
  2. Eine Anleitung zum eigenen Vorhersagemodell

PAL – eine Einführung

Wir haben in der Vergangenheit bereits über den Einsatz von SAP Business Objects Predictive Analytics zur prädiktiven Analyse gesprochen. Eine weitere Möglichkeit zum Erstellen und Trainieren von Modellen und zur Ableitung von Prognosen von diesen Modellen eröffnet sich zudem durch die Nutzung der Predictive Analytics Library. Diese Methode ist weitaus komplexer und erfordert vom Anwender zudem technisches Fachwissen.

Zwar ist die von SAP angebotene Lösung benutzerfreundlicher, doch eröffnet die Implementierung von HANA-PAL-Lösungen durch die Erstellung eines nativen HANA-Prozesses weitaus größere Möglichkeiten zur Aufnahme der Daten in andere Anwendungen.

Der Einsatz des Predictive-Analytics-Tools ist vor allem aufgrund der Lizenzgebühren mit hohen Kosten verbunden – dagegen erfordert HANA PAL lediglich die entsprechende Expertise im Umgang mit den PAL-Funktionen.

WIE FUNKTIONIERT DIE PAL?

HANA bietet ein breites Spektrum an Funktionen, die sich für unterschiedliche Szenarien implementieren lassen (Data Clustering, Klassifizierung, Regression, Zeitreihenprognosen usw.).

In diesem Artikel konzentrieren wir uns auf eine PAL-Funktion: die multiple lineare Regression.

Dabei verwenden wir mit dem Rossmann-Datensatz erneut die Daten, die wir bereits im zweiten Artikel unserer Predictive-Analytics-Reihe herangezogen haben (Eine Anleitung zum eigenen Vorhersagemodell).

Der Datensatz wird von der Rossmann-Drogeriekette auf der Kaggle-Website bereitgestellt. Hier können Einzelpersonen und Unternehmen echte Datensätze hochladen, um Wettbewerbe zu veranstalten oder Datenforscher bei der Weiterentwicklung ihrer Fähigkeiten zu unterstützen.

Für eine detaillierte Ansicht der Codes müsst ihr eine multilineare Regression erstellen. Wir stellen euch zwei Dokumente zur Verfügung, die euch dabei unterstützen:

VORAUSSETZUNGEN UND DATENVERARBEITUNG

Für die nächsten Schritte gehen wir davon aus, dass du SAP HANA STUDIO bereits auf deinem Computer installiert hast. Darüber hinaus benötigst du eine SAP-HANA-Serververbindung, um auf die HANA-Datenbank und -Engine zugreifen zu können. Auch solltest du bereits die aktuellste Version der HANA-Datenbank (2.0) verwenden. Beide Algorithmen in unserem Beispiel werden sowohl von HANA 1.0 SPS 09 als auch von HANA 2.0 SPS 01 unterstützt.

Für unser Szenario haben wir die Daten aus der train.csv und store.csv als Berechnungssicht in unsere HANA-Datenbank importiert.

In der Datei train.csv finden wir neben den Daten zu den Verkaufszahlen und den Verkaufszeitpunkten auch Informationen zu Angebotsaktionen, Kundenzahlen, Wochentagen usw.

Die Datei store.csv enthält Stammdaten zu den einzelnen Filialen, so zum Beispiel die Entfernung zum nächsten Mitbewerber, Art der Filiale und Sortiment der Filiale.

Abbildung 1.1 zeigt die beiden Datentabellen:

Abb. 1.1

In der von uns angelegten HANA-Berechnungssicht bringen wir beide Dateien zusammen, um einen vollständigen Datensatz zu erhalten und sicherzustellen, dass unsere Algorithmen ein genaues Modell für eine präzise Prognose ableiten können (wie in Abb. 1.2 dargestellt).

Abb. 1.2

IMPLEMENTIERUNG DES PAL-ALGORITHMUS

Für unser Szenario implementieren wir die Prognose mithilfe der multiplen linearen Regression.

1. Worum handelt es sich bei der multiplen linearen Regression (MLR)?

Lineare Regression ist ein Verfahren zur Modellierung des linearen Zusammenhangs zwischen einer Variable , üblicherweise als abhängige Variable bezeichnet, und einer oder mehreren Variablen, üblicherweise als unabhängige Variablen bezeichnet, wiederum bekannt als Prädiktionsvektor . In der linearen Regression werden Daten anhand von linearen Funktionen modelliert und unbekannte Modellparameter werden anhand dieser Daten geschätzt. Diese Modelle werden als lineare Modelle bezeichnet.

2. IN 7 SCHRITTEN ZUM EIGENEN MLR-MODELL

Schritt 1: Parameter definieren

Zur Erstellung eines multiplen linearen Modells muss der Algorithmus über zwei Eingabetabellen sowie über vier Ausgabetabellen verfügen und wir müssen die Definition dieser Tabellen anlegen.

Eingabetabellen:

  1. Data – hier enthalten sind die Spalten, die für das Trainieren des Modells verwendet werden. Die Daten müssen eine „Primary Key“-Spalte („ID“) umfassen, die als erste Spalte definiert werden muss. Die zweite Spalte muss die Ziel-/abhängige Spalte sein (die „Y-Variable, die wir vorhersagen). Die übrigen Spalten werden mit den unabhängigen Variablen befüllt (X1, X2, …), die den Algorithmus bei der Erstellung eines exakten Modells unterstützen.
  2. Significance – hier enthalten sind die Koeffizienten des Modells und ihre Werte (je höher der Wert, desto größer sind die Auswirkungen auf das Modell)
  3. Fitted – Die angepassten Werte („Sales” in unserem Fall) des Ziels.
  4. Results – die Ergebnisse des Models (Modellgenauigkeit und Vertrauen).
  5. Exported model – das Modell, das für zukünftige Prognosen verwendet wird.
  6. Control – der Parameter, der festlegt, wie der Algorithmus arbeiten soll (hier können wir die so genannten „Elastic Net Penalties“ aktivieren und entsprechend anpassen, um die Thread-Nummern, das zu lösende Least-Square-Problem usw. festzulegen.)

Schritt 2: Anlegen der Parametertabelle

Nachdem wir die Definitionen für das Modell angelegt haben, müssen wir nun die Tabelle anlegen, die alle Parameter enthält. Wir legen darüber hinaus fest, ob es sich bei den Tabellen um Eingabe- oder Ausgabeparameter handelt (bei den Tabellen Data und Control handelt es sich um Eingabeparameter und bei allen anderen um Ausgabeparameter).

Schritt 3: Anlegen des Wrappers

Der Wrapper erstellt ein Verfahren, das die angegebene Funktion und die zuvor angelegte Parametertabelle verwendet. Dieses Verfahren werden wir in der Folge zur Erstellung des Regressionsmodells anhand unserer Trainingsdaten verwenden.

Schritt 4: Befüllen der „Data“-Tabelle

Zunächst legen wir eine neue Tabelle an, die die gleichen Spalten und Spaltentypen umfasst wie die für die Parametertabelle erstellte Definition.

Schritt 5: Befüllen der „Control“-Tabelle

In der Control-Tabelle legt der Anwender fest, wie der Algorithmus arbeitet. Dies funktioniert ganz ähnlich wie das Erstellen von Einstellungen für dein Programm. Die folgenden „Control“-Einstellungen können festgelegt werden:

a. THREAD_NUMBER -> gibt die Nummer der Threads an (nur wenn Algorithmus 1,5 oder 6 verwendet wird)

b. ALG -> gibt die Algorithmen zur Lösung des Least-Square-Problems an:

  • QR-Zerlegung (numerisch stabil, aber schlägt fehl, wenn A rangdefizient ist)
  • SVD (numerisch stabil und Rangdefizienz stellt kein Problem dar, aber sehr rechenintensiv)
  • Zyklisches Koordinatenabstiegsverfahren zur Lösung durch Elastic Net regularisierter multipler linearer Regression
  • Cholesky-Zerlegung (schnell aber numerisch instabil)
  • Alternating Direction Method of Multipliers zur Lösung durch Elastic Net regularisierter multipler linearer Regression. Dieses Verfahren ist in vielen Fällen schneller als das zyklische Koordinatenabstiegsverfahren und wird empfohlen.

c. VARIABLE_SELECTION -> „0“ um alle Variablen zu berücksichtigen, „1“ Vorwärtsselektion, „2“ Rückwärtsselektion

d. ALPHA_TO_ENTER -> p-Wert für Vorwärtsselektion

e. ALPHA_TO_REMOVE -> p-Wert für Rückwärtsselektion

f. ENET_LAMBDA -> Penalisierte Gewichtung

g. ENET_ALPHA -> Elastic-Net-Mischungsparameter

In unserem Beispiel verwenden wir ALG 6 mit aktivierter Elastic-Net-Penalisierung (eine Methode zur Optimierung des Regressionsmodells) und die Thread-Nummer beträgt 5.

Schritt 6: Ausgabetabellen aufbauen

Jetzt müssen wir nur noch die Ausgabetabellen anhand dieser Definitionen erstellen.

Schritt 7: Das Modell erstellen

Abschließend müssen wir nur noch das Verfahren aufrufen, das wir im Wrapper angelegt haben, die Ergebnisse anzeigen und eine Tabelle anlegen, in der wir die angepassten Werte mit den tatsächlichen Werten vergleichen können.

Ergebnisse

Das erste angezeigte Ergebnis ist die Koeffiziententabelle, aus der wir die Auswirkungen jedes Koeffizienten auf das Model entnehmen können, wobei 0 bedeutet, dass es nahezu keine Auswirkungen auf das erstellte Modell gibt.

Abb. 1.3

Die nächste Ausgabetabelle zeigt uns die angepassten Werte der Trainingsmodelldaten.

Abb. 1.4

Mit der letzten Tabelle erhalten wir die Statistiken des erstellten Modells.

  • R2 – ist die Aussagekraft des Modells, in unserem Fall liegt die Präzision des Modells bei 89,996 %.
  • F – Der F-Wert ist das Verhältnis der mittleren Regressions-Quadratsumme geteilt durch die mittlere Fehlerquadratsumme.
  • AIC – Das Akaike Information Criterion (AIC) ermöglicht Aussagen über die relative Güte statistischer Modelle für einen vorgebenen Datensatz. Anhand einer Sammlung von Modellen für die Daten können so Aussagen über die Güte jedes Modells relativ zu den anderen Modellen getroffen werden. Das AIC stellt also ein Mittel zur Modellauswahl bereit.
  • BIC – Das Bayesian Information Criterion (BIC) oder Schwarz Information Criterion (auch SBC, SBIC) genannt dient als Kriterium für die Modellauswahl aus einer begrenzten Anzahl an Modellen, wobei das Modell mit dem kleinsten BIC bevorzugt wird. Es basiert zum Teil auf der Wahrscheinlichkeitsfunktion und ist eng verwandt mit dem AIC.
  • MQF – Der mittlere quadratische Fehler (MQF) oder mittlere quadratische Abweichung (MQA) eines Schätzers (eines Verfahrens zur Schätzung einer unbeobachteten Menge) misst den Mittelwert der Quadrate der Fehler oder Abweichungen — also den Unterschied zwischen dem Schätzer und dem was geschätzt wird.
  • RMSE – Wurzel aus dem mittleren quadratischen Fehler (Root Mean Square Error)
  • MAE – Mittlerer absoluter Fehler (Mean Absolute Error)
  • MAPE – Der mittlere absolute prozentuale Fehler (Mean Absolute Percentage Error), auch mittlere absolute prozentuale Abweichung (Mean Absolute Percentage Deviation / MAPD) genannt, dient der Messung der Vorhersagegenauigkeit eines Prognoseverfahrens in der Statistik, so zum Beispiel bei der Trendschätzung.

Abb. 1.5

Der Vergleich zwischen den angepassten und den tatsächlichen Werten kann durch ein Diagramm benutzerfreundlicher gestaltet werden. In diesem kann der tatsächliche Wert mit dem vorhergesagten/angepassten Wert wie unten dargestellt über einen festgelegten Zeitraum verglichen werden.

Abb. 1.6

Abb. 1.7

3. ANLEITUNG ZUR ERSTELLUNG VON PROGNOSEN ANHAND DER ERGEBNISSE DES MLR-MODELLS

(1) Parameterdefinition

Ähnlich wie bei der Erstellung unseres Modells müssen wir auch hier eine Parameterdefinition anlegen, jedoch mit dem Unterschied, dass die Datentabelle „type“ die Zielvariable nicht enthalten darf.

(2) Wrapper Prognoseverfahren

Unser erstelltes Verfahren wird mit den Spezifikationen und Strukturen der Parametertabelle gespeist und verwendet die ‘FORECASTWITHLR’-Funktion.

(3) Erstellen der Eingabe- und Ausgabetabelle und Datengenerierung sowie Regressionsspezifikation

Ähnlich wie bei der Modellerstellung legen wir fest, wie die lineare Regressionsprognosefunktion mit den Eingabedaten umgeht. Die Eingabedaten dürfen die Zielspalte nicht enthalten.

(4) Koeffiziententabelle

Die Daten der Koeffiziententabelle müssen aus der Koeffiziententabelle aus den Modellergebnissen übertragen werden.

(5) Aufruf des Prognoseverfahrens

Jetzt müssen wir nur noch das zuvor angelegte Verfahren aufrufen.

(6) Ergebnisanzeige

Zeige die vom Prognosealgorithmus erstellen Vorhersagen an.

 

Quellen:

https://help.sap.com/doc/86fb8d26952748debc8d08db756e6c1f/2.0.00/en-us/sap_hana_predictive_analysis_library_pal_en.pdf

https://help.sap.com/viewer/2cfbc5cf2bc14f028cfbe2a2bba60a50/2.0.00/en-US/eedc9094daf04419bc25f6ed097ac03b.html

Autor dieses Beitrags
Gellert Peter-Siskovits Associate
Tel.: +49 (0) 7031 714 660 0
E-Mail: cluj@inspiricon.de
Inspiricon-Textanalyse-mit-SAP-HANA_jack-moreh

Wie euch die Textanalyse mit SAP HANA zu wertvollen Erkenntnissen verhelfen kann

Wissen ist Macht, so viel ist klar. Wir sammeln jeden Tag Informationen, teilen sie mit der Welt oder tragen sie in die sozialen Netzwerke. Unser Alltag ist durchdrungen von Informationen. Aber was können wir mit all diesem Wissen anfangen? Zuallererst können wir es in Datenform abspeichern.

Daten lassen sich in zwei Kategorien unterteilen: unstrukturierte und strukturierte Daten.

inspiricon-figure1-unstructured-structured-data

Abbildung 1. Wie sich unstrukturierte und strukturierte Daten unterscheiden.

Was sind unstrukturierte Daten?

Mit dem Begriff „unstrukturierte Daten“ bezeichnet man in aller Regel Informationen, die nicht in klassischen zeilen- oder spaltenbasierten Datenbanken vorgehalten werden. Beispiele hierfür sind Facebook, Twitter oder auch E-Mails.

Die Vorteile strukturierter Daten liegen darin, dass sie sich maschinengestützt identifizieren und verarbeiten lassen. Sind die Daten erst einmal gespeichert, lassen sie sich viel einfacher für bestimmte Zwecke durchsuchen, zusammenstellen und filtern.

Was sind strukturierte Daten?

Daten, die sich in einem festgelegten Feld innerhalb eines Datensatzes oder einer Datei befinden, werden als strukturierte Daten bezeichnet. Ein Beispiel hierfür sind Datenbanken.

Textanalyse versetzt uns also in die Lage, unstrukturierte Daten in strukturierte Daten zu verwandeln und diese im Anschluss zu analysieren.

Was verstehen wir unter Textanalyse?

Mit dem Begriff Textanalyse beschreiben wir das Zusammenspiel aus Verfahren aus der Linguistik, Statistik und dem maschinellen Lernen, die den Informationsgehalt von Textquellen zum Zwecke der explorativen Datenanalyse, Forschung oder Untersuchung modellieren und strukturieren.

Die SAP-HANA-gestützte Textanalyse setzt auf umfassende linguistische und statistische Verfahren, um unstrukturierte Texte zu extrahieren und klassifizieren und so in Entitäten und Domänen umzuwandeln.

Mit der SAP-HANA-Plattform erhaltet ihr wertvolle Einblicke aus euren unstrukturierten Textdaten. Die Plattform gibt euch Funktionen für Suche, Textanalyse und Text Mining in unstrukturierten Textquellen an die Hand.

In der Textanalyse kommt eine Reihe von Verfahren zum Einsatz, um bestimmte Zeichenfolgen zu finden oder linguistische Suchen durchzuführen.

  • Volltextindizierung:
    Ein Volltextindex ist eine besondere Form des Token-basierten funktionalen Index, der über das Volltextmodul für SQL Server erstellt und gepflegt wird.
  • Volltextsuche:
    Die Volltextsuche ist auf linguistische (sprachbasierte) Suchen in Texten und Dokumenten in Ihrer Datenbank ausgelegt.
  • Unscharfe Suche (Fuzzy Search):
    Bei der unscharfen Suche handelt es sich um ein Verfahren zum Auffinden von Zeichenfolgen, die annähernd einem bestimmten Muster entsprechen. Bei diesem Suchtyp werden auch dann Treffer gefunden, wenn der Benutzer Rechtschreibfehler macht oder nur unvollständige Wörter als Suchanfrage verwendet.

In diesem Artikel beschäftigen wir uns mit der Volltextindizierung.

Volltextindizierung: Tabelle $TA

  • Durch die Erstellung eines Volltextindexes mit dem Parameter TEXT ANALYSIS ON wird eine Tabelle mit dem Namen $TA_<indexname> angelegt, die linguistische oder semantische Analyseergebnisse enthält.
  • Die Menge der Spalten in der Tabelle mit dem Präfix $TA bleibt unabhängig von der mit dem Volltextindex verwendeten Textanalysekonfiguration immer gleich:

inspiricon-figure2-ta-table

Abbildung 2. Beispielhafte Darstellung einer TA-Tabelle

  • Schlüsselspalten aus Quelltabelle (ID):
    Die ersten Spalten in der Tabelle $TA sind eine direkte Kopie der Schlüsselspalten aus der Quelltabelle.
  • TA_RULE:
    Die Regel, über die Ausgabe erstellt wurde. In aller Regel handelt es sich hierbei um LXP für die linguistische Analyse bzw. um Entity Extraction für die Entitäten- und Faktenanalyse.
  • TA_COUNTER:
    Eine eindeutige fortlaufende Nummer für jeden aus dem Dokument extrahierten Token.
  • TA_TOKEN:
    Die aus dem Dokument extrahierten Begriffe, Fakten oder Entitäten.
  • TA_LANGUAGE:
    Die Sprache, in der das Dokument verfasst wurde.
  • TA_TYPE:
    Die Art des Tokens. In der linguistischen Analyse handelt es sich hierbei um die Wortart. In der semantischen Analyse bezeichnet dies den Entitätstyp oder den Fakt. (’noun, ‚StrongPositiveSentiment‘, ‚Person‘)
  • TA_NORMALIZED:
    Die normalisierte Version des Tokens. Die Beugung wird beibehalten, Großschreibung und diakritische Zeichen werden jedoch entfernt. Im Falle der Extraktion von Entitäten ist die Spalte null.
  • TA_STEM:
    Die Stammform des Tokens. Der Eintrag in diesem Feld ist ungebeugt und normalisiert. Sind Token und Stammform identisch ist diese Spalte null. Im Falle der Extraktion von Entitäten ist die Spalte ebenfalls null.
  • TA_PARAGRAPGH:
    Der Absatz im Dokument, der den Token enthält.
  • TA_SENTENCE:
    Der Satz im Dokument, der den Token enthält.
  • TA_CREATED_AT:
    Erstellungszeitpunkt des Datensatzes.
  • TA_OFFSET:
    Der Zeichenoffset vom Dokumentenanfang an.
  • TA_PARENT:
    Der TA_COUNTER-Wert vom übergeordneten Element dieses Token.

Integrierte Konfigurationen

SAP HANA verfügt über sieben integrierte Konfigurationen, die der Analyse des Verhaltens und der Textausgabe dienen:

  • LINGANALYSIS_BASIC:
    Hierbei handelt es sich um die grundlegendste Form der linguistischen Analyse. Dabei wird zwar die Datei mit Token versehen, die Normalisierung und Zurückführung in die Stammform entfallen jedoch, so dass die Spalten für TA_NORMALIZED und TA_STEM leer bleiben.
  • LINGANALYSIS_STEMS:
    Bei dieser Konfiguration erfolgt für die Token die Normalisierung und die Zurückführung in die Stammform, die Felder TA_NORMALIZED und TA_STEM werden also befüllt.
  • LINGANALYSIS_FULL:
    Hierbei wird eine vollständige linguistische Analyse durchgeführt, so dass alle Spalten in der Tabelle $TA befüllt werden.
  • EXTRACTION_CORE:
    Hierbei werden Entitäten aus dem Text extrahiert. Dabei kann es sich zum Beispiel um Menschen, Orte oder URLs handeln.
  • EXTRACTION_CORE_VOICEOFCUSTOMER:
    Hierbei werden Entitäten und Fakten extrahiert, um positive und negative Stimmungen im Zusammenhang mit den Token zu identifizieren.
  • EXTRACTION_CORE_ENTERPRISE:
    Dieses Verfahren dient der Extraktion von Daten für Unternehmenszwecke, so zum Beispiel Daten zu Fusionen, Übernahmen, organisatorischen Veränderungen und Produktveröffentlichungen.
  • EXTRACTION_CORE_PUBLIC_SECTOR:
    Hierbei werden sicherheitsrelevante Daten über öffentliche Personen, Ereignisse und Organisationen extrahiert.

Erstellen einer Tabelle und eines Index

Im Folgenden findet ihr ein Praxisbeispiel für die EXTRACTION_CORE_ VOICEOFCUSTOMER-Konfiguration zum Identifizieren von Stimmungen (positive oder negative Gefühle):

Zunächst müssen wir eine Tabelle erstellen, Werte einfügen und einen Index erstellen.

Öffnet dazu eine SQL-Konsole und gebt den folgenden Befehl ein:

inspiricon-figure3-create-table

Abbildung 3. Tabelle erstellen

 inspiricon-figure4-create-Index-insert-values

Abbildung 4. Index erstellen und Werte eingeben

Die erstellte Tabelle sieht folgendermaßen aus:

inspiricon-figure5-created-table

Tabelle 5. Tabelle

Im letzten Schritt erhalten wir die Textanalyse. Wie ihr sehen könnt, erscheinen „likes“ und „enjoys“ als „WeakPositiveSentiment“, also als schwaches positives Gefühl.

inspiricon-figure6-text-analysis

Abbildung 6. Textanalyse

Hinweis: Dieser Artikel wurde angeregt durch den folgenden Blogartikel https://blogs.sap.com/2017/05/21/sap-hana-ta-text-analysis/

Autor dieses Beitrags
Adelina Ramona Popa und
Lucian Tomeac
Associates SAP BI
Tel.: +49 (0) 7031 714 660 0
E-Mail: cluj@inspiricon.de
Anleitung zum eigenen Vorhersagemodell

Eine Anleitung zum eigenen Vorhersagemodell

Was spricht für diese Lösung?

Wie schon im ersten Artikel aus unserer Predictive-Analytics-Blogreihe angesprochen, müssen wir als Analysten Unternehmen mit wichtigen Erkenntnissen versorgen – Erkenntnisse, die Entscheidungen unternehmensweit optimieren und so das Kundenerlebnis verbessern, Faktoren identifizieren, die sich auf die Geschäftsentwicklung auswirken, und versteckte Risiken offenlegen.

Um ein einheitliches Modell zur Vorhersage des optimalen Geschäftsnutzens aufbauen zu können, müssen wir jedoch eine ganze Reihe von Schritten abarbeiten. Dabei gilt es zunächst, die Daten zu bereinigen und umzuwandeln und sich für die passenden Algorithmen zu entscheiden. Hinzu kommen das Training, die Optimierung und das Testen unseres Vorhersagemodells, bis es schließlich so weit ist, dass es auf die Geschäftsprozesse angewendet werden kann.

Sobald man aber denkt, dass man sich mit etwas Neuem beschäftigen kann, ändern sich unsere Daten wieder und unser Vorhersagemodell muss entsprechend aktualisiert werden. Zudem benötigt man für andere Geschäftsentscheidungen wieder ganz andere Vorhersagemodelle.

Wie können wir am Ball bleiben?

Die Antwort lautet SAP BusinessObjects Predictive Analytics. Wir müssen es nur mit Daten füttern und es automatisiert für uns die Modellentwicklung, wobei es die Informationen für jede Entscheidung generiert und testet. Wir können die Modelle unternehmensweit einsetzen, immer genau dort, wo sie benötigt werden, um jederzeit die besten Entscheidungen zu treffen.

Ein weiterer wichtiger Aspekt, der mit dieser Lösung einhergeht, ist die Zeitersparnis: Ergebnisse liegen nicht erst nach Wochen oder sogar Monaten vor, sondern innerhalb weniger Tage. Und sobald eine Aktualisierung der Modelle anhand unserer neuesten Daten ansteht, stellt sie auch das sicher, wobei Relevanz der Modelle stets gegeben ist.

Ein Modell erstellen und Vorhersagen ableiten

In diesem Artikel erstellen wir ein Vorhersagemodell, das dann später für die weiteren Vorhersagen zum Einsatz kommt. Ich zeige euch, wie einfach es ist, ein erfolgreiches Modell auf Grundlage eines aussagekräftigen Datensets zu erstellen.

Angefangen habe ich mit einem öffentlichen Datensatz von Kaggle; der ideale Einstieg für alle, die sich mit maschinellem Lernen beschäftigen möchten. Dabei habe ich mich für den Datensatz Rossman Store Sales entschieden, da dieser die historischen Verkaufsdaten von rund 1.115 Rossmann-Filialen bereitstellt.

Den Datensatz finden Sie unter folgendem Link: https://www.kaggle.com/c/rossmann-store-sales.

Die Aufgabe bestand darin, die „Verkaufszahlen“ für jede Filiale für ein bestimmtes Jahr zu prognostizieren (z. B. 2015).

8 Schritte bis zum eigenen Vorhersagemodell

Schritt 1
Gehen wir davon aus, dass SAP HANA Studio sowie SAP BusinessObjects Predictive Analytics bereits auf deinem Computer installiert sind. Darüber hinaus benötigst du eine SAP-HANA-Serververbindung, um auf die HANA-Datenbank und -Engine zugreifen zu können.

Schritt 2
Sammle die Daten und lade die CSV-Dateien in die SAP-HANA-Datenbank. Bei der Erstellung unseres Modells kamen die Datei store.cvs mit den Informationen zu den Filialen sowie die Datei train.csv mit den historischen Daten einschließlich der Verkaufszahlen (Abb. 1.1) zum Einsatz.

SAP HANA Database

Abb. 1.1

Schritt 3
Erstelle eine Berechnungssicht für jeden Datenset (Abb. 1.2). Bringe diese dann in einer weiteren Berechnungssicht zusammen, die dann später im Predictive-Analytics-Tool verwendet wird. Das endgültige Schema der Sichten findest du in Abbildung 1.3.

Calculation View

Abb. 1.2

Final View

Abb. 1.3

Schritt 4
Weiter geht’s. Nach dem Öffnen von SAP Predictive Analytics findest du das Toolset Expert Analytics (Abb. 1.4). Bei Expert Analytics handelt es sich um ein Tool für statistische Analysen und Data Mining, mit dem du deine eigenen Vorhersagemodelle erstellen kannst, anhand derer du wiederum Prognosen über zukünftige Ereignisse stellen kannst.

Expert Analytics Toolset

Abb. 1.4

Schritt 5
Füge ein neues Datenset hinzu. Dazu kannst du wie in Abbildung 1.5 gezeigt als Quelle die Option „Download aus SAP HANA“ auswählen. So werden die Daten lokal auf deinem Rechner gespeichert und auch das Modell wird lokal ausgeführt. Alternativ kannst du auch die Option „Verbindung mit SAP HANA“ nutzen. Wie du sicher schon erraten hast, werden die Daten und das Modell dann in HANA gespeichert bzw. ausgeführt.

Add new dataset

Abb. 1.5

Schritt 6
Stelle mit deinen Anmeldedaten wie ein Abbildung 1.6 gezeigt eine Verbindung zu deinem SAP-HANA-Server her.

Connection to SAP HANA

Abb. 1.6

Schritt 7
Suche die zuvor erstellte Sicht und klicke auf „Erstellen“ (Abb. 1.7).

Create

Abb. 1.7

Schritt 8
In der Designer-Sicht stellen wir unser Prognoseschema zusammen (Abb. 1.8). Dazu beginnen wir unter Stichprobe mit der Auswahl der Daten (und beschränken uns dabei auf die Daten aus 2015). Im nächsten Schritt weisen wir in der Partitionskomponente die Trainings-, Test- und Validierungsdaten zu. Zur Klassifizierung nutzen wir den linearen Auto-Regression-Algorithmus, in dem die Variablen linear von den vorausgegangenen Werten und einem stochastischen Term abhängen. Die letzte Komponente Modellstatistik dient dann der Anzeige der Ergebnisse.

Designer Screen

Abb. 1.8

Ergebnisse
Nach dem Ausführen des Modells erhalten wir das folgenden Ergebnis (Abb. 1.9). Wie erwartet stimmt der grün markierte prognostizierte Wert nahezu mit dem tatsächlichen Wert in blau überein. Im Reiter Übersicht finden wir die Algorithmenübersicht sowie die Verteilung über die Trainings-, Test- und Validierungsdatensets (Abb. 2.0).

Result

Abb. 1.9

Result

Abb. 2.0

Fazit

Mit SAP BusinessObjects Predictive Analytics kannst du aus komplexen, in deinen Daten verborgenen Mustern konkrete und zielführende Erkenntnisse gewinnen – Erkenntnisse, die wiederum die Kundenbindung, die Verkaufszahlen und die operative Entwicklung positiv beeinflussen und Risiken im ganzen Unternehmen reduzieren. Und dadurch lassen sich natürlich unter dem Strich massive Verbesserungen im Geschäftsergebnis erzielen. Dabei kann all das hochautomatisiert erfolgen, was es umso leichter macht, dauerhaft Spitzenleistungen zu gewährleisten und viele hundert Modelle zu verwalten.

Darum möchte ich dir dringend ans Herz legen, mit SAP Business Objects Predictive Analytics ganz neue Wege in deinem Digital Enterprise zu beschreiten.

Falls du noch Fragen hast, kannst du dich gerne an uns wenden! Wir helfen dir gerne weiter.

Quelle: https://www.sap.com/germany/assetdetail/2017/05/9a00f0bc-b87c-0010-82c7-eda71af511fa.html

Autor dieses Beitrags
Andrei Orbai Associate SAP BI
Tel.: +49 (0) 7031 714 660 0
E-Mail: cluj@inspiricon.de
Die Welt der Predictive Analytics

Die Welt der Predictive Analytics

Hallo und herzlich willkommen zum ersten Artikel aus unserer Blogreihe zum Thema Predictive Analytics!

Am besten steigen wir gleich mit zwei Definitionen ein, deren Verständnis grundlegend für diesen und alle weiteren Artikel ist:

  1. Predictive Analytics umfasst mit Predictive Modellingmaschinellem Lernen und Data Mining verschiedene statistische Verfahren, die aktuelle und historische Daten analysieren, um Prognosen für zukünftige oder anderweitig unbekannte Ereignisse stellen zu können.
  2. Maschinelles Lernen ist ein kontinuierlicher Prozess, bei dem Algorithmen und Modelle ununterbrochen lernen, um Wahrnehmung (die Art und Weise, wie wir Informationen aufnehmen) und die Verarbeitung (die Art und Weise, wie wir mit Informationen umgehen) entsprechend anzupassen.

Was du von dieser Blogreihe erwarten kannst

  • Dieser erste Artikel dient als Einstieg in das Thema und soll dir einen Überblick über die Zusammenhänge liefern. Ziel ist es, dich mit dem Verhältnis zwischen Predictive Analytics, maschinellem Lernen und Unternehmensstrategie, Technologie und Unternehmenskultur vertraut zu machen.
  • In unserem zweiten Artikel werden wir dir ein auf Grundlage von SAP Predictive Analytics entwickeltes Vorhersagemodell vorstellen.
  • Im dritten Artikel wagen wir dann einen tieferen Einstieg in die theoretischen und technischen Grundlagen. Dabei wird mit jedem neuen Artikel umfassenderes technisches Fachwissen erforderlich.

Wirft man einen Blick auf die betriebswirtschaftlichen Zusammenhänge wird schnell klar, dass Unternehmer, die ihre digitalen Strategien immer wieder neu an den sich verändernden technologischen Rahmenbedingungen ausrichten, auch sicherstellen können, dass ihre Mitarbeiter den Fokus auf zukünftige Innovationen nicht verlieren und das Unternehmen vorantreiben können. Durch das strategische Setzen auf disruptive Technologien können Entscheidungsträger den Markt umkrempeln, indem sie nie dagewesene Produkte, Dienstleistungen oder Geschäftsmodelle erdenken und dabei eine Werteverschiebung zwischen Produzenten oder zum Verbraucher hin auslösen.

Der Blick in den Rückspiegel kann zwar dafür sorgen, dass der Betrieb aufrechterhalten bleibt, in Hinblick auf Geschäftserfolg und Wachstum kommt man so aber nicht weiter. Stößt ein Mitbewerber durch den Einsatz aufstrebender Technologien in ein Marktsegment vor, riskiert der Rest des Marktes den Verlust etablierter Positionen, wenn sie mit dem digitalen Reifegrad nicht Schritt halten können.

Strategisches Vorausdenken und datengetriebene Entscheidungsfindung

Zwar sind Entscheidungsträger in aller Regel keine Datenwissenschaftler, doch erkennen sie zunehmend die Macht der Daten. Durch den Einsatz von maschinellem Lernen, Big Data sowie Advanced und Predictive Analytics machen sich kleine und mittelständische Unternehmen ihre eigene Schnelligkeit und Agilität immer mehr zu Nutze, um die Wünsche ihrer Kunden besser zu erfüllen, tiefgreifende Marktveränderungen abzufedern oder als Chance zu begreifen und gestützt auf Innovationen ihren Weg an die Spitze des Marktes zu beschreiten.

Eines ist klar, Daten sind dieser Tage im Überfluss vorhanden. Unternehmen haben viele Milliarden in kostspielige Aufwandspositionen wie ERP-Systeme, Betriebstechnologien von Anlagenausrüstung über POS-Systeme und Informationsdienste investiert. Die schiere Menge an Daten heißt aber noch lange nicht, dass diese auch gewinnbringend eingesetzt werden.

Der Erfolg von maschinellem Lernen und Predictive Analytics ist sehr gut dokumentiert und ihr Wert gerade in Bereichen wie Marketing und Konsumverhalten sehr geschätzt, doch die möglichen Anwendungsbereiche gehen weit darüber hinaus.

Es gibt immer noch sehr viele Unternehmen, die ihre Umsatzplanung (als Teil ihrer Finanzprognosen) anhand manueller Eingaben erstellen, die wiederum auf persönlichen Erfahrungswerten basieren – also mehr oder weniger nach „Bauchgefühl“. Unter Umständen wird am Ende noch ein Korrekturfaktor berücksichtigt; aber wie du dir sicher vorstellen kannst, ist auch dieser nie wirklich präzise. Die Erstellung und Einbeziehung eines Vorhersagemodells kann mit Blick auf ein solches Szenario also einen nicht unerheblichen Vorteil in puncto Planungsgenauigkeit ausmachen.

Predictive und Machine Learning ist für die meisten Menschen noch ein sehr neues Feld. Dank der vielfältigen Ausprägungen, die alle unterschiedliche Lösungen und Herangehensweisen erforderlich machen, ergeben sich nahezu unendliche Möglichkeiten, die Vorteile nutzbar zu machen.

Die aktuellen Architekturparadigmen der SAP im Bereich Predictive Analytics

Beim Trainieren eines Vorhersagemodells mit allen verfügbaren Daten steht an allererster Stelle die Kolokation der Daten und der Algorithmenumsetzung (die Predictive-Modelling-Engine).

Hier sind zwei Szenarien möglich:

  1. Zum einen kann die Modelling-Engine zu den Daten gebracht werden (was Datenbankanbieter und die Big-Data-Plattformen sehr gut verstanden haben), so auch SAP mit Machine-Learning-Bibliotheken wie SAP Predictive Analytics Library und SAP Automated Predictive Library sowie die R- und TensorFlow-Integration unter SAP HANA (wobei die letzteren Zwei in Zukunft eine engere Integration als derzeit benötigen).
  2. Weiterhin ist es möglich, die Daten zur Modelling-Engine zu bringen (wobei die meisten Cloud-Umgebungen für Predictive und Machine Learning genau dieses Prinzip verfolgen). Dies gilt auch für die Machine-Learning-Umgebung SAP Leonardo. Diese Cloud-Umgebungen müssen schon bald auch hybride Szenarien unterstützen, damit diese Herausforderung von einem Problem zu einer weiteren Gestaltungsoption wird.

Unternehmenskultur spielt neben der Technologie eine ebenso bedeutsame Rolle

Ganz egal, wie ausgereift die Analytics-Lösungen im Unternehmen auch sein mögen, lässt sich kein nennenswerter Vorteil daraus schöpfen, wenn sie nicht von Menschen mit entsprechendem Fähigkeiten eingesetzt werden. Wenn sich die Finanzabteilung auf das Erbsenzählen beschränkt und mit ihren Dashboards auch weiterhin nur den Blick in den Rückspiegel wagt, werden lediglich die gleichen alten Prozesse unter Einsatz fortschrittlicherer Technologien automatisiert.

Führungsstärke erfordert gezielte Anstrengungen – gestützt durch Schulung und Mentoring – bei der Weiterentwicklung der Predictive-Analytics-Fertigkeiten im Team. Wird das Team dieser Herausforderung nicht gerecht, lässt es sich nicht vermeiden, diese Fähigkeiten anderswo zu suchen.

In einer immer schnelllebigeren Geschäftswelt müssen sich Unternehmen auf Daten stützen, um erfolgreich zu sein. Ein datengestütztes Unternehmen kann aber nur dann entstehen, wenn die Verantwortlichen den Puls des Unternehmens unnachgiebig messen, überwachen, vorhersagen und entsprechend handeln und dabei kontinuierlich und automatisiert vorgehen. Um dies zu erreichen, muss das Unternehmen den Wert der Daten unternehmensweit kommunizieren, als Katalysator für den kulturellen Wandel hin zur einem datengestützten Vorgehen fungieren und zudem – und das ist der wichtigste Punkt – dabei auf maschinelles Lernen im gesamten Unternehmen setzen.

Dabei gilt es Technologien, Datenstrategie und Unternehmenskultur zu berücksichtigen. Das Wichtigste ist jedoch, den ersten Schritt auf diesem Weg zu wagen.

Verpassenicht unseren nächsten Artikel zum Thema Predictive Analytics. Folge uns auf Facebook, Twitter, XING oder LinkedIn, um immer auf dem Laufenden zu bleiben.

Quelle: Wikipedia, http://blog-sap.com

Autor dieses Beitrags
Ovidiu Costea Consultant SAP BI
Tel.: +49 (0) 7031 714 660 0
E-Mail: cluj@inspiricon.de
künstliche Intelligenz

Big Data und künstliche Intelligenz – ein mächtiges Duo, das unsere Zukunft mitgestalten wird

Mit SAP wird künstliche Intelligenz Wirklichkeit

Big Data mit intelligenten Maschinen auszuwerten, ist schon lange keine Zukunftsmusik mehr. SAP hat möglich gemacht, was bis vor einigen Jahren noch als Träumerei galt. Basierend auf SAP HANA hat SAP mehrere Softwarekomponenten ins Leben gerufen, die eigenständig denken und Daten im großen Stil auswerten. Mittlerweile kann die Software Gesichter und Objekte erkennen sowie große Analysen ausführen, die manuell kaum möglich und vorstellbar wären.

Künstliche Intelligenz (KI) ist dank SAP keine Vision mehr, sondern zur Realität geworden.

SAP Clea und SAP Leonardo: Künstliche Intelligenz auf dem Vormarsch

SAP hat seine Plattform HANA um eine neue Version ergänzt. Daneben wurden zahlreiche KI- und IoT-Services (Internet of Things, zu deutsch: Internet der Dinge) auf den Markt gebracht.
Die neue Software von SAP – SAP Cleaist in die SAP Cloud integriert und kann eigenständig lernen, wobei sie keine explizite Programmierung mehr benötigt. Die analytische Intelligenz wird bereits von Unternehmen wie der Munich RE und der europäischen Raumfahrtagentur genutzt. Die Versicherungsexperten der Munich Re kalkulieren beispielsweise laufend die Gefahr von Waldbränden, wobei sie Daten über Vegetationsverläufe heranziehen. Diese Berechnungen werden durch die intelligente Software unterstützt und Big Data wird im großen Stil ausgewertet.

SAP Leonardo heißt das IoT-Lösungsportfolio von SAP.

Wie schon der Namensgeber Leonardo da Vinci arbeitet auch SAP Leonardo interdisziplinär und übergreifend – was eine elementare Anforderung für das Internet der Dinge ist. Informationen aus unterschiedlichen Unternehmensbereichen werden in Betracht gezogen, sodass auf dieser Basis neue Lösungen und Geschäftsmodelle entwickelt werden können. Die Intention von SAP Leonardo ist es, potenzielle Kunden bei der Findung ihrer IoT-Strategie zu unterstützen und passende Lösungen für ihre individuellen Anforderungen auszuwählen.

Denn eines steht fest: die eine richtige Software für das IoT oder KI gibt es nicht. Meistens handelt es sich um ein Zusammenwirken aus mehreren Anwendungen.

Der digitale Kern: Die SAP Enterprise Suite S/4HANA

S/4HANA wird bereits von über 4.000 Unternehmen in 25 Ländern genutzt. Diese ist der digitale Kern der Transformation, die für das Internet der Dinge oder KI/Machine Learning eingesetzt werden kann. SAP stellte eine Reihe von Ergänzungen in der Cloud vor, darunter Connected Logistics, Vehicles, Manufacturing, Assets, Retail und Future Cities. Damit lassen sich unter anderem Fahrzeugflotten managen, Qualitätsebenen kontrollieren und Routen berechnen.

Im Bereich der künstlichen Intelligenz und den Machine Learning-Services bietet SAP unter anderem die folgenden Services in der SAP Cloud an:

  • Resume Matching für das Recruiting
  • Cash App zur Analyse der Zahlungsmoral
  • Social Media Customer Service
  • Brand Intelligence
  • Fraud Detection für Versicherungen und Banken

SAP Fiori – die neue SAP UI

SAP Fiori ist eine Initiative, mit der die Endanwender-Erfahrung verbessert wird (dazu mehr auf unserer Webseite und auf unserem Blog). Mit Fiori 2.0 sollen sämtliche SAP-Anwendungen harmonisiert und somit untereinander kompatibel werden. SAP Fiori beinhaltet Verbesserungen in den Bereichen Design und Benutzerfreundlichkeit.

Und auch hier kommt KI zum Einsatz. Der Anwender wird durch einen Co-Piloten unterstützt, der dessen Handlungen voraussieht und diese entsprechend vorbereitet. Mit der integrierten Sprachsteuerung werden beispielsweise Arbeitsabläufe bei Wartungen oder im Lager verbessert. Die künstliche Intelligenz wertet Lieferanten aus und ordnet diese nach einem eingestellten Anforderungsprofil in Kategorien ein.

Inspiriert: Big Data spielend einfach auswerten

Zusammen mit der künstlichen Intelligenz sowie Big Data und der Unterstützung durch SAP Fiori kann noch effektiver automatisiert und ausgewertet werden. Die Software versucht zu erahnen, welche Handlungen der Nutzer durchführen möchte. Dies führt zu einer Effektivitätssteigerung und einer höheren Geschwindigkeit.

Mit SAP Fiori kann Big Data im großen Stil analysiert und die wichtigen Geschäftskennzahlen automatisiert überwacht werden. Anomalien, Trends und Muster werden der verantwortlichen Person automatisch auf einer den Benutzer in den Mittelpunkt stellenden Oberfläche mitgeteilt. Die Analysen erfolgen auf einer zentralen Benutzeroberfläche, die eine intuitive Bedienung ermöglicht. Komplexe Modifikationen von Ein- und Ausgabeparametern sind nicht mehr erforderlich.

Die künstliche Intelligenz sorgt dafür, dass die Algorithmen auch ohne Hilfe von Fachabteilungen aussagekräftige Ergebnisse liefern. Das maschinelle Lernen zielt vornehmlich darauf ab, Zusammenhänge und Muster in Daten zu erkennen und diese auf neue Datensätze zu übertragen. Die dafür benötigten Algorithmen basieren auf Statistik, Wahrscheinlichkeitsrechnung und Algebra.

Für SAP Application Intelligence sind die Daten der Treibstoff für maschinelles Lernen.

Deep Learning: das haben die Maschinen den Menschen voraus

Ein Bereich des maschinellen Lernens ist das Deep Learning:
Bei diesem werden neuronale Netze mit großen Datenmengen geflutet. Dadurch soll die Software in der Lage sein, z.B. Gesichter zu erkennen, Gegenstände zuzuordnen und Sprache zu verstehen. Fähigkeiten, die immer weiter verbessert und zunehmend in der Robotik eingesetzt werden.

Auch im medizinischen Bereich eröffnen sich durch KI neue Anwendungsmöglichkeiten:
Zukünftig sollen die Daten einzelner Krebspatienten mit Millionen Krankenakten abgeglichen werden, wodurch eine individualisierte Präzisionsmedizin ermöglicht werden soll.

Die künstliche Intelligenz funktioniert für die breite Masse und liefert vielversprechende Ergebnisse. Die Software wird immer mehr zu einem Generalisten, der in allen Bereichen eingesetzt werden kann. Dabei bringt die SAP Application Intelligence Software Zusammenhänge ans Licht, die Menschen normalerweise nicht erkennen würden. Menschliche Mitarbeiter übersehen aus Zeitmangel oftmals wichtige Daten, die daher im Alltag unentdeckt bleiben.

Unser Fazit

Künstliche Intelligenz hat schon heute Eingang in Business Intelligence-Lösungen gefunden. Es werden somit bereits Datenanalysen in den Unternehmen gesteuert, zum Beispiel zum Auffinden von Anomalien oder dem automatisierten Strukturieren und Aufbereiten von Daten. Weiterhin werden Algorithmen aus dem Bereich der KI oft eingesetzt, um Datenströme zu überwachen.

Das intelligente und integrative Zusammenspiel von den neuen SAP Komponenten wie Clea, Leonardo oder Fiori basierend auf der SAP HANA Cloud und On-Premise-Lösungen, inspiriert Inspiricon stetig zur Suche nach innovativen Service Dienstleistungen für unsere Kunden.

Kontaktieren Sie uns, wenn auch Sie neugierig auf neue und ungeahnte (Geschäfts-) Möglichkeiten sind!

Autor dieses Beitrags
Claudio Volk Vorstand
Tel.: +49 (0) 7031 714 660 0
E-Mail: info@inspiricon.de