Maschinelles-Lernen-mit-SAP-HANA-und-SAP-Fiori

Machine Learning mit SAP HANA und SAP Fiori

Was ist maschinelles Lernen und warum ist es so wichtig?

Auf jeden Fall ist es heute in aller Munde. Wir sollten also zunächst einmal klären, warum genau alle Welt so interessiert daran ist.

Der Grund, warum maschinelles Lernen in aller Munde ist, ist die Tatsache, dass es uns in vielen Bereichen gewaltige Fortschritte bringt. Es erlaubt Computern, bestimmte Aufgaben nicht nur auszuführen, sondern die zugrunde liegenden Regeln für die Ausführung dieser Aufgaben im Vorfeld überhaupt erst zu erlernen (also basierend auf historischen Daten aus Erfahrungen zu lernen).

Ein gutes Beispiel ist das Gesundheitswesen. Hier werden Algorithmen für das maschinelle Lernen bereits erfolgreich eingesetzt, um die Anzeichen für ein Reihe schwerer Krankheiten wie zum Beispiel Brustkrebs frühestmöglich zu erkennen und so das Risiko für Patienten zu senken.

Im Finanzwesen kommen Lernalgorithmen zum Einsatz, um Betrugsversuchen auf die Spur zu kommen und Geldwäsche zu bekämpfen. Derartige Algorithmen können Abermillionen von Transaktionen analysieren und dabei verdächtige Muster erkennen und offenlegen.

Im Bereich der Online-Sicherheit werden Algorithmen für das maschinelle Lernen eingesetzt, um verdächtiges Verhalten zu beobachten und Datenschutzverletzungen zu erkennen.

Und nicht zuletzt ist maschinelles Lernen schon längst Teil unseres Alltags. Egal, ob wir mit Siri auf unseren Apple-Geräten oder mit Alexa über unseren Echo kommunizieren, in den sozialen Netzwerken unterwegs sind oder uns von Google Maps leiten lassen, den Kern all dieser Systeme bilden maschinelle Lernalgorithmen.

Auch im Tagesgeschäft vieler Unternehmen sorgen diese Algorithmen für die Automatisierung grundlegender Aufgaben, die früher von Hand verrichtet wurden, so zum Beispiel bei der Prüfung von Rechnungen auf Duplikate, Bestellungen und vielem mehr. …

Im Bereich Business Intelligence nimmt maschinelles Lernen als Bestandteil von Predictive-Analytics-Verfahren ebenfalls ein wichtige Rolle ein und ermöglicht es Mitarbeiten, bestimmte Ergebnisse zu prognostizieren. So können im Vertrieb zum Beispiel Vorhersagen zu Verkaufszahlen getroffen werden und Führungskräfte können verschiedene Prognosen zu den möglichen Auswirkungen von Entscheidungen auswerten und so ihre Entscheidungsfindung unterstützen.

Aber wie funktioniert es?

Machen wir einen kleinen Test:

  • 2 → 4
  • 3 → 9
  • 5 → 25
  • 6 → ?

Die richtige Antwort ist natürlich 36. Und der Grund, warum du das wusstet, ist die Tatsache, dass du ein Muster erkannt hast. Und genau so arbeiten auch maschinelle Lernalgorithmen. Sie werden anhand von Beispieldaten trainiert und lernen auf diesem Wege, Muster zu erkennen und diese Muster den richtigen Reaktionen zuzuordnen (aus Erfahrung lernen). Nach Abschluss des Trainings können wir den Algorithmus mit neuen Daten füttern und erhalten (hoffentlich) die richtige Antwort auf unsere Abfrage.

Natürlich sind diese Algorithmen auf die Bearbeitung von Problemen ausgelegt, die um ein Vielfaches komplexer sind als unser kleiner Test und zudem unzählige Eingabewerte erfordern. So stellen auch komplexe Aufgaben wie Bild- und Spracherkennung oder die Vorhersage möglicher Vertriebsergebnisse anhand von historischen Marktdaten kein Problem dar.

 Maschinelles Lernen mit SAP HANA und Fiori

Als viel diskutiertes Thema weckt maschinelles Lernen natürlich auch Neugier und Experimentierfreude und auch wir bilden da keine Ausnahme. Bei Inspiricon stellte sich vor allem die Frage, welchen Mehrwert dieser neue Trend in unseren angestammten Fachgebieten wie BI, SAP Fiori und SAP HANA entfalten könnte.

Dabei hat sich gezeigt, dass SAP HANA das maschinelle Lernen bereits heute schon sehr beachtlich unterstützt. Mit der SAP HANA Predictive Analytics Library ermöglicht SAP die Verwendung von maschinellen Lernalgorithmen und sogar den Aufbau von neuronalen Netzen. Nutzt man diese Stärken und verbindet sie mit SAP Fiori, lassen sich einige hochinteressante Anwendungen im Bereich der Predictive Analytics realisieren. So konnten wir beispielweise ein kleine Fiori-Anwendung für die Prognose von Verkaufszahlen in den einzelnen Filialen einer Supermarktkette erstellen. Die folgende Abbildung zeigt einen groben Überblick über die Architektur dieser Anwendung:

Architecture-Application-Machine-Learning

Die von uns entwickelte Fiori-Anwendung wäre vor allem für Führungskräfte interessant und würde es ihnen erlauben, innerhalb der Anwendung die Prognose bis zum Jahresende auszuwerten. Wir beschäftigen uns auch weiterhin mit diesem Szenario und arbeiten daran, es um zusätzliche Funktionen wie zum Beispiel “Was-wäre-wenn-Szenarien” zu erweitern, über die sich die Auswirkungen von Management- und Marketingentscheidungen (z. B. Werbeaktionen) auf die prognostizierten Verkaufszahlen untersuchen lassen:

Fiori-Predictive-Demo-Machine-Learning

Fazit

Maschinelles Lernen ist schon mit einem einfachen HANA-Backend möglich!

Zwar gibt es am Markt bereits umfassende und leistungsstarke Tools wie z. B. Tensorflow für neuronale Netzwerke oder SAP Predictive Analytics, aber ihr solltet unbedingt wissen, dass diese für einen Einstieg in das Thema nicht unbedingt zwingend erforderlich sind. Wie schon oben gesagt, erhaltet ihr mit SAP HANA schon alles, was ihr braucht. Und mit SAP Fiori lassen sich UI-Anwendungen realisieren, die das implementierte Szenario optimal unterstützen. Für die vorausgehende Analyse der Daten stehen euch leistungsstarke und zudem kostenlose Analysetools wie Python (Pandas) oder R zur Verfügung. Daraus kann sich ein durchaus sehr attraktiver Ansatz ergeben, der sich auch ohne zusätzliche Lizenz- oder Infrastrukturkosten umsetzen lässt und insbesondere für kleinere Probleme geeignet ist, die auch ohne intensive Datenverarbeitung auskommen.

Für welchen Ansatz ihr euch letzten Endes entscheidet, hängt ganz allein von dem jeweiligen Anwendungsfall ab und sollte vom Entwicklungsteam genau durchdacht sein. Ein wichtiger Faktor, der bei der Entscheidungsfindung nicht außer Acht gelassen werden darf, sind die Kosten, die durch Pflege und Lizenzen entstehen.

Quellenangabe der Bilder:  Inspiricon AG

Autor dieses Beitrags
Gerald Iakobinyi-Pich Solution Architect
Tel.: +49 (0) 7031 714 660 0
E-Mail: cluj@inspiricon.de

Wie Ihr Predictive Analytics als native Hana-Funktion nutzen könnt

In diesem Artikel befassen wir uns eingehend mit den nativen Predictive-Analytics-Möglichkeiten in HANA und erklären dabei Schritt für Schritt, wie ihr die Predictive Analytics Library (PAL), ein Bestandteil der Application Function Library (AFL), einsetzen könnt, um ein mehrfaches lineares Regressionsmodell zu erstellen und anhand dieses Models Prognosen abzuleiten.

Du möchtest mehr zum Thema Predictive Analytics erfahren? Dann kann ich dir zwei unserer vorausgegangenen Artikel empfehlen:

  1. Die Welt der Predictive Analytics
  2. Eine Anleitung zum eigenen Vorhersagemodell

PAL – eine Einführung

Wir haben in der Vergangenheit bereits über den Einsatz von SAP Business Objects Predictive Analytics zur prädiktiven Analyse gesprochen. Eine weitere Möglichkeit zum Erstellen und Trainieren von Modellen und zur Ableitung von Prognosen von diesen Modellen eröffnet sich zudem durch die Nutzung der Predictive Analytics Library. Diese Methode ist weitaus komplexer und erfordert vom Anwender zudem technisches Fachwissen.

Zwar ist die von SAP angebotene Lösung benutzerfreundlicher, doch eröffnet die Implementierung von HANA-PAL-Lösungen durch die Erstellung eines nativen HANA-Prozesses weitaus größere Möglichkeiten zur Aufnahme der Daten in andere Anwendungen.

Der Einsatz des Predictive-Analytics-Tools ist vor allem aufgrund der Lizenzgebühren mit hohen Kosten verbunden – dagegen erfordert HANA PAL lediglich die entsprechende Expertise im Umgang mit den PAL-Funktionen.

WIE FUNKTIONIERT DIE PAL?

HANA bietet ein breites Spektrum an Funktionen, die sich für unterschiedliche Szenarien implementieren lassen (Data Clustering, Klassifizierung, Regression, Zeitreihenprognosen usw.).

In diesem Artikel konzentrieren wir uns auf eine PAL-Funktion: die multiple lineare Regression.

Dabei verwenden wir mit dem Rossmann-Datensatz erneut die Daten, die wir bereits im zweiten Artikel unserer Predictive-Analytics-Reihe herangezogen haben (Eine Anleitung zum eigenen Vorhersagemodell).

Der Datensatz wird von der Rossmann-Drogeriekette auf der Kaggle-Website bereitgestellt. Hier können Einzelpersonen und Unternehmen echte Datensätze hochladen, um Wettbewerbe zu veranstalten oder Datenforscher bei der Weiterentwicklung ihrer Fähigkeiten zu unterstützen.

Für eine detaillierte Ansicht der Codes müsst ihr eine multilineare Regression erstellen. Wir stellen euch zwei Dokumente zur Verfügung, die euch dabei unterstützen:

VORAUSSETZUNGEN UND DATENVERARBEITUNG

Für die nächsten Schritte gehen wir davon aus, dass du SAP HANA STUDIO bereits auf deinem Computer installiert hast. Darüber hinaus benötigst du eine SAP-HANA-Serververbindung, um auf die HANA-Datenbank und -Engine zugreifen zu können. Auch solltest du bereits die aktuellste Version der HANA-Datenbank (2.0) verwenden. Beide Algorithmen in unserem Beispiel werden sowohl von HANA 1.0 SPS 09 als auch von HANA 2.0 SPS 01 unterstützt.

Für unser Szenario haben wir die Daten aus der train.csv und store.csv als Berechnungssicht in unsere HANA-Datenbank importiert.

In der Datei train.csv finden wir neben den Daten zu den Verkaufszahlen und den Verkaufszeitpunkten auch Informationen zu Angebotsaktionen, Kundenzahlen, Wochentagen usw.

Die Datei store.csv enthält Stammdaten zu den einzelnen Filialen, so zum Beispiel die Entfernung zum nächsten Mitbewerber, Art der Filiale und Sortiment der Filiale.

Abbildung 1.1 zeigt die beiden Datentabellen:

Abb. 1.1

In der von uns angelegten HANA-Berechnungssicht bringen wir beide Dateien zusammen, um einen vollständigen Datensatz zu erhalten und sicherzustellen, dass unsere Algorithmen ein genaues Modell für eine präzise Prognose ableiten können (wie in Abb. 1.2 dargestellt).

Abb. 1.2

IMPLEMENTIERUNG DES PAL-ALGORITHMUS

Für unser Szenario implementieren wir die Prognose mithilfe der multiplen linearen Regression.

1. Worum handelt es sich bei der multiplen linearen Regression (MLR)?

Lineare Regression ist ein Verfahren zur Modellierung des linearen Zusammenhangs zwischen einer Variable , üblicherweise als abhängige Variable bezeichnet, und einer oder mehreren Variablen, üblicherweise als unabhängige Variablen bezeichnet, wiederum bekannt als Prädiktionsvektor . In der linearen Regression werden Daten anhand von linearen Funktionen modelliert und unbekannte Modellparameter werden anhand dieser Daten geschätzt. Diese Modelle werden als lineare Modelle bezeichnet.

2. IN 7 SCHRITTEN ZUM EIGENEN MLR-MODELL

Schritt 1: Parameter definieren

Zur Erstellung eines multiplen linearen Modells muss der Algorithmus über zwei Eingabetabellen sowie über vier Ausgabetabellen verfügen und wir müssen die Definition dieser Tabellen anlegen.

Eingabetabellen:

  1. Data – hier enthalten sind die Spalten, die für das Trainieren des Modells verwendet werden. Die Daten müssen eine „Primary Key“-Spalte („ID“) umfassen, die als erste Spalte definiert werden muss. Die zweite Spalte muss die Ziel-/abhängige Spalte sein (die „Y-Variable, die wir vorhersagen). Die übrigen Spalten werden mit den unabhängigen Variablen befüllt (X1, X2, …), die den Algorithmus bei der Erstellung eines exakten Modells unterstützen.
  2. Significance – hier enthalten sind die Koeffizienten des Modells und ihre Werte (je höher der Wert, desto größer sind die Auswirkungen auf das Modell)
  3. Fitted – Die angepassten Werte („Sales” in unserem Fall) des Ziels.
  4. Results – die Ergebnisse des Models (Modellgenauigkeit und Vertrauen).
  5. Exported model – das Modell, das für zukünftige Prognosen verwendet wird.
  6. Control – der Parameter, der festlegt, wie der Algorithmus arbeiten soll (hier können wir die so genannten „Elastic Net Penalties“ aktivieren und entsprechend anpassen, um die Thread-Nummern, das zu lösende Least-Square-Problem usw. festzulegen.)

Schritt 2: Anlegen der Parametertabelle

Nachdem wir die Definitionen für das Modell angelegt haben, müssen wir nun die Tabelle anlegen, die alle Parameter enthält. Wir legen darüber hinaus fest, ob es sich bei den Tabellen um Eingabe- oder Ausgabeparameter handelt (bei den Tabellen Data und Control handelt es sich um Eingabeparameter und bei allen anderen um Ausgabeparameter).

Schritt 3: Anlegen des Wrappers

Der Wrapper erstellt ein Verfahren, das die angegebene Funktion und die zuvor angelegte Parametertabelle verwendet. Dieses Verfahren werden wir in der Folge zur Erstellung des Regressionsmodells anhand unserer Trainingsdaten verwenden.

Schritt 4: Befüllen der „Data“-Tabelle

Zunächst legen wir eine neue Tabelle an, die die gleichen Spalten und Spaltentypen umfasst wie die für die Parametertabelle erstellte Definition.

Schritt 5: Befüllen der „Control“-Tabelle

In der Control-Tabelle legt der Anwender fest, wie der Algorithmus arbeitet. Dies funktioniert ganz ähnlich wie das Erstellen von Einstellungen für dein Programm. Die folgenden „Control“-Einstellungen können festgelegt werden:

a. THREAD_NUMBER -> gibt die Nummer der Threads an (nur wenn Algorithmus 1,5 oder 6 verwendet wird)

b. ALG -> gibt die Algorithmen zur Lösung des Least-Square-Problems an:

  • QR-Zerlegung (numerisch stabil, aber schlägt fehl, wenn A rangdefizient ist)
  • SVD (numerisch stabil und Rangdefizienz stellt kein Problem dar, aber sehr rechenintensiv)
  • Zyklisches Koordinatenabstiegsverfahren zur Lösung durch Elastic Net regularisierter multipler linearer Regression
  • Cholesky-Zerlegung (schnell aber numerisch instabil)
  • Alternating Direction Method of Multipliers zur Lösung durch Elastic Net regularisierter multipler linearer Regression. Dieses Verfahren ist in vielen Fällen schneller als das zyklische Koordinatenabstiegsverfahren und wird empfohlen.

c. VARIABLE_SELECTION -> „0“ um alle Variablen zu berücksichtigen, „1“ Vorwärtsselektion, „2“ Rückwärtsselektion

d. ALPHA_TO_ENTER -> p-Wert für Vorwärtsselektion

e. ALPHA_TO_REMOVE -> p-Wert für Rückwärtsselektion

f. ENET_LAMBDA -> Penalisierte Gewichtung

g. ENET_ALPHA -> Elastic-Net-Mischungsparameter

In unserem Beispiel verwenden wir ALG 6 mit aktivierter Elastic-Net-Penalisierung (eine Methode zur Optimierung des Regressionsmodells) und die Thread-Nummer beträgt 5.

Schritt 6: Ausgabetabellen aufbauen

Jetzt müssen wir nur noch die Ausgabetabellen anhand dieser Definitionen erstellen.

Schritt 7: Das Modell erstellen

Abschließend müssen wir nur noch das Verfahren aufrufen, das wir im Wrapper angelegt haben, die Ergebnisse anzeigen und eine Tabelle anlegen, in der wir die angepassten Werte mit den tatsächlichen Werten vergleichen können.

Ergebnisse

Das erste angezeigte Ergebnis ist die Koeffiziententabelle, aus der wir die Auswirkungen jedes Koeffizienten auf das Model entnehmen können, wobei 0 bedeutet, dass es nahezu keine Auswirkungen auf das erstellte Modell gibt.

Abb. 1.3

Die nächste Ausgabetabelle zeigt uns die angepassten Werte der Trainingsmodelldaten.

Abb. 1.4

Mit der letzten Tabelle erhalten wir die Statistiken des erstellten Modells.

  • R2 – ist die Aussagekraft des Modells, in unserem Fall liegt die Präzision des Modells bei 89,996 %.
  • F – Der F-Wert ist das Verhältnis der mittleren Regressions-Quadratsumme geteilt durch die mittlere Fehlerquadratsumme.
  • AIC – Das Akaike Information Criterion (AIC) ermöglicht Aussagen über die relative Güte statistischer Modelle für einen vorgebenen Datensatz. Anhand einer Sammlung von Modellen für die Daten können so Aussagen über die Güte jedes Modells relativ zu den anderen Modellen getroffen werden. Das AIC stellt also ein Mittel zur Modellauswahl bereit.
  • BIC – Das Bayesian Information Criterion (BIC) oder Schwarz Information Criterion (auch SBC, SBIC) genannt dient als Kriterium für die Modellauswahl aus einer begrenzten Anzahl an Modellen, wobei das Modell mit dem kleinsten BIC bevorzugt wird. Es basiert zum Teil auf der Wahrscheinlichkeitsfunktion und ist eng verwandt mit dem AIC.
  • MQF – Der mittlere quadratische Fehler (MQF) oder mittlere quadratische Abweichung (MQA) eines Schätzers (eines Verfahrens zur Schätzung einer unbeobachteten Menge) misst den Mittelwert der Quadrate der Fehler oder Abweichungen — also den Unterschied zwischen dem Schätzer und dem was geschätzt wird.
  • RMSE – Wurzel aus dem mittleren quadratischen Fehler (Root Mean Square Error)
  • MAE – Mittlerer absoluter Fehler (Mean Absolute Error)
  • MAPE – Der mittlere absolute prozentuale Fehler (Mean Absolute Percentage Error), auch mittlere absolute prozentuale Abweichung (Mean Absolute Percentage Deviation / MAPD) genannt, dient der Messung der Vorhersagegenauigkeit eines Prognoseverfahrens in der Statistik, so zum Beispiel bei der Trendschätzung.

Abb. 1.5

Der Vergleich zwischen den angepassten und den tatsächlichen Werten kann durch ein Diagramm benutzerfreundlicher gestaltet werden. In diesem kann der tatsächliche Wert mit dem vorhergesagten/angepassten Wert wie unten dargestellt über einen festgelegten Zeitraum verglichen werden.

Abb. 1.6

Abb. 1.7

3. ANLEITUNG ZUR ERSTELLUNG VON PROGNOSEN ANHAND DER ERGEBNISSE DES MLR-MODELLS

(1) Parameterdefinition

Ähnlich wie bei der Erstellung unseres Modells müssen wir auch hier eine Parameterdefinition anlegen, jedoch mit dem Unterschied, dass die Datentabelle „type“ die Zielvariable nicht enthalten darf.

(2) Wrapper Prognoseverfahren

Unser erstelltes Verfahren wird mit den Spezifikationen und Strukturen der Parametertabelle gespeist und verwendet die ‘FORECASTWITHLR’-Funktion.

(3) Erstellen der Eingabe- und Ausgabetabelle und Datengenerierung sowie Regressionsspezifikation

Ähnlich wie bei der Modellerstellung legen wir fest, wie die lineare Regressionsprognosefunktion mit den Eingabedaten umgeht. Die Eingabedaten dürfen die Zielspalte nicht enthalten.

(4) Koeffiziententabelle

Die Daten der Koeffiziententabelle müssen aus der Koeffiziententabelle aus den Modellergebnissen übertragen werden.

(5) Aufruf des Prognoseverfahrens

Jetzt müssen wir nur noch das zuvor angelegte Verfahren aufrufen.

(6) Ergebnisanzeige

Zeige die vom Prognosealgorithmus erstellen Vorhersagen an.

 

Quellen:

https://help.sap.com/doc/86fb8d26952748debc8d08db756e6c1f/2.0.00/en-us/sap_hana_predictive_analysis_library_pal_en.pdf

https://help.sap.com/viewer/2cfbc5cf2bc14f028cfbe2a2bba60a50/2.0.00/en-US/eedc9094daf04419bc25f6ed097ac03b.html

Autor dieses Beitrags
Gellert Peter-Siskovits Associate
Tel.: +49 (0) 7031 714 660 0
E-Mail: cluj@inspiricon.de
Inspiricon-Textanalyse-mit-SAP-HANA_jack-moreh

Wie euch die Textanalyse mit SAP HANA zu wertvollen Erkenntnissen verhelfen kann

Wissen ist Macht, so viel ist klar. Wir sammeln jeden Tag Informationen, teilen sie mit der Welt oder tragen sie in die sozialen Netzwerke. Unser Alltag ist durchdrungen von Informationen. Aber was können wir mit all diesem Wissen anfangen? Zuallererst können wir es in Datenform abspeichern.

Daten lassen sich in zwei Kategorien unterteilen: unstrukturierte und strukturierte Daten.

inspiricon-figure1-unstructured-structured-data

Abbildung 1. Wie sich unstrukturierte und strukturierte Daten unterscheiden.

Was sind unstrukturierte Daten?

Mit dem Begriff „unstrukturierte Daten“ bezeichnet man in aller Regel Informationen, die nicht in klassischen zeilen- oder spaltenbasierten Datenbanken vorgehalten werden. Beispiele hierfür sind Facebook, Twitter oder auch E-Mails.

Die Vorteile strukturierter Daten liegen darin, dass sie sich maschinengestützt identifizieren und verarbeiten lassen. Sind die Daten erst einmal gespeichert, lassen sie sich viel einfacher für bestimmte Zwecke durchsuchen, zusammenstellen und filtern.

Was sind strukturierte Daten?

Daten, die sich in einem festgelegten Feld innerhalb eines Datensatzes oder einer Datei befinden, werden als strukturierte Daten bezeichnet. Ein Beispiel hierfür sind Datenbanken.

Textanalyse versetzt uns also in die Lage, unstrukturierte Daten in strukturierte Daten zu verwandeln und diese im Anschluss zu analysieren.

Was verstehen wir unter Textanalyse?

Mit dem Begriff Textanalyse beschreiben wir das Zusammenspiel aus Verfahren aus der Linguistik, Statistik und dem maschinellen Lernen, die den Informationsgehalt von Textquellen zum Zwecke der explorativen Datenanalyse, Forschung oder Untersuchung modellieren und strukturieren.

Die SAP-HANA-gestützte Textanalyse setzt auf umfassende linguistische und statistische Verfahren, um unstrukturierte Texte zu extrahieren und klassifizieren und so in Entitäten und Domänen umzuwandeln.

Mit der SAP-HANA-Plattform erhaltet ihr wertvolle Einblicke aus euren unstrukturierten Textdaten. Die Plattform gibt euch Funktionen für Suche, Textanalyse und Text Mining in unstrukturierten Textquellen an die Hand.

In der Textanalyse kommt eine Reihe von Verfahren zum Einsatz, um bestimmte Zeichenfolgen zu finden oder linguistische Suchen durchzuführen.

  • Volltextindizierung:
    Ein Volltextindex ist eine besondere Form des Token-basierten funktionalen Index, der über das Volltextmodul für SQL Server erstellt und gepflegt wird.
  • Volltextsuche:
    Die Volltextsuche ist auf linguistische (sprachbasierte) Suchen in Texten und Dokumenten in Ihrer Datenbank ausgelegt.
  • Unscharfe Suche (Fuzzy Search):
    Bei der unscharfen Suche handelt es sich um ein Verfahren zum Auffinden von Zeichenfolgen, die annähernd einem bestimmten Muster entsprechen. Bei diesem Suchtyp werden auch dann Treffer gefunden, wenn der Benutzer Rechtschreibfehler macht oder nur unvollständige Wörter als Suchanfrage verwendet.

In diesem Artikel beschäftigen wir uns mit der Volltextindizierung.

Volltextindizierung: Tabelle $TA

  • Durch die Erstellung eines Volltextindexes mit dem Parameter TEXT ANALYSIS ON wird eine Tabelle mit dem Namen $TA_<indexname> angelegt, die linguistische oder semantische Analyseergebnisse enthält.
  • Die Menge der Spalten in der Tabelle mit dem Präfix $TA bleibt unabhängig von der mit dem Volltextindex verwendeten Textanalysekonfiguration immer gleich:

inspiricon-figure2-ta-table

Abbildung 2. Beispielhafte Darstellung einer TA-Tabelle

  • Schlüsselspalten aus Quelltabelle (ID):
    Die ersten Spalten in der Tabelle $TA sind eine direkte Kopie der Schlüsselspalten aus der Quelltabelle.
  • TA_RULE:
    Die Regel, über die Ausgabe erstellt wurde. In aller Regel handelt es sich hierbei um LXP für die linguistische Analyse bzw. um Entity Extraction für die Entitäten- und Faktenanalyse.
  • TA_COUNTER:
    Eine eindeutige fortlaufende Nummer für jeden aus dem Dokument extrahierten Token.
  • TA_TOKEN:
    Die aus dem Dokument extrahierten Begriffe, Fakten oder Entitäten.
  • TA_LANGUAGE:
    Die Sprache, in der das Dokument verfasst wurde.
  • TA_TYPE:
    Die Art des Tokens. In der linguistischen Analyse handelt es sich hierbei um die Wortart. In der semantischen Analyse bezeichnet dies den Entitätstyp oder den Fakt. (’noun, ‚StrongPositiveSentiment‘, ‚Person‘)
  • TA_NORMALIZED:
    Die normalisierte Version des Tokens. Die Beugung wird beibehalten, Großschreibung und diakritische Zeichen werden jedoch entfernt. Im Falle der Extraktion von Entitäten ist die Spalte null.
  • TA_STEM:
    Die Stammform des Tokens. Der Eintrag in diesem Feld ist ungebeugt und normalisiert. Sind Token und Stammform identisch ist diese Spalte null. Im Falle der Extraktion von Entitäten ist die Spalte ebenfalls null.
  • TA_PARAGRAPGH:
    Der Absatz im Dokument, der den Token enthält.
  • TA_SENTENCE:
    Der Satz im Dokument, der den Token enthält.
  • TA_CREATED_AT:
    Erstellungszeitpunkt des Datensatzes.
  • TA_OFFSET:
    Der Zeichenoffset vom Dokumentenanfang an.
  • TA_PARENT:
    Der TA_COUNTER-Wert vom übergeordneten Element dieses Token.

Integrierte Konfigurationen

SAP HANA verfügt über sieben integrierte Konfigurationen, die der Analyse des Verhaltens und der Textausgabe dienen:

  • LINGANALYSIS_BASIC:
    Hierbei handelt es sich um die grundlegendste Form der linguistischen Analyse. Dabei wird zwar die Datei mit Token versehen, die Normalisierung und Zurückführung in die Stammform entfallen jedoch, so dass die Spalten für TA_NORMALIZED und TA_STEM leer bleiben.
  • LINGANALYSIS_STEMS:
    Bei dieser Konfiguration erfolgt für die Token die Normalisierung und die Zurückführung in die Stammform, die Felder TA_NORMALIZED und TA_STEM werden also befüllt.
  • LINGANALYSIS_FULL:
    Hierbei wird eine vollständige linguistische Analyse durchgeführt, so dass alle Spalten in der Tabelle $TA befüllt werden.
  • EXTRACTION_CORE:
    Hierbei werden Entitäten aus dem Text extrahiert. Dabei kann es sich zum Beispiel um Menschen, Orte oder URLs handeln.
  • EXTRACTION_CORE_VOICEOFCUSTOMER:
    Hierbei werden Entitäten und Fakten extrahiert, um positive und negative Stimmungen im Zusammenhang mit den Token zu identifizieren.
  • EXTRACTION_CORE_ENTERPRISE:
    Dieses Verfahren dient der Extraktion von Daten für Unternehmenszwecke, so zum Beispiel Daten zu Fusionen, Übernahmen, organisatorischen Veränderungen und Produktveröffentlichungen.
  • EXTRACTION_CORE_PUBLIC_SECTOR:
    Hierbei werden sicherheitsrelevante Daten über öffentliche Personen, Ereignisse und Organisationen extrahiert.

Erstellen einer Tabelle und eines Index

Im Folgenden findet ihr ein Praxisbeispiel für die EXTRACTION_CORE_ VOICEOFCUSTOMER-Konfiguration zum Identifizieren von Stimmungen (positive oder negative Gefühle):

Zunächst müssen wir eine Tabelle erstellen, Werte einfügen und einen Index erstellen.

Öffnet dazu eine SQL-Konsole und gebt den folgenden Befehl ein:

inspiricon-figure3-create-table

Abbildung 3. Tabelle erstellen

 inspiricon-figure4-create-Index-insert-values

Abbildung 4. Index erstellen und Werte eingeben

Die erstellte Tabelle sieht folgendermaßen aus:

inspiricon-figure5-created-table

Tabelle 5. Tabelle

Im letzten Schritt erhalten wir die Textanalyse. Wie ihr sehen könnt, erscheinen „likes“ und „enjoys“ als „WeakPositiveSentiment“, also als schwaches positives Gefühl.

inspiricon-figure6-text-analysis

Abbildung 6. Textanalyse

Hinweis: Dieser Artikel wurde angeregt durch den folgenden Blogartikel https://blogs.sap.com/2017/05/21/sap-hana-ta-text-analysis/

Autor dieses Beitrags
Adelina Ramona Popa und
Lucian Tomeac
Associates SAP BI
Tel.: +49 (0) 7031 714 660 0
E-Mail: cluj@inspiricon.de

Eine Anleitung zum eigenen Vorhersagemodell

Was spricht für diese Lösung?

Wie schon im ersten Artikel aus unserer Predictive-Analytics-Blogreihe angesprochen, müssen wir als Analysten Unternehmen mit wichtigen Erkenntnissen versorgen – Erkenntnisse, die Entscheidungen unternehmensweit optimieren und so das Kundenerlebnis verbessern, Faktoren identifizieren, die sich auf die Geschäftsentwicklung auswirken, und versteckte Risiken offenlegen.

Um ein einheitliches Modell zur Vorhersage des optimalen Geschäftsnutzens aufbauen zu können, müssen wir jedoch eine ganze Reihe von Schritten abarbeiten. Dabei gilt es zunächst, die Daten zu bereinigen und umzuwandeln und sich für die passenden Algorithmen zu entscheiden. Hinzu kommen das Training, die Optimierung und das Testen unseres Vorhersagemodells, bis es schließlich so weit ist, dass es auf die Geschäftsprozesse angewendet werden kann.

Sobald man aber denkt, dass man sich mit etwas Neuem beschäftigen kann, ändern sich unsere Daten wieder und unser Vorhersagemodell muss entsprechend aktualisiert werden. Zudem benötigt man für andere Geschäftsentscheidungen wieder ganz andere Vorhersagemodelle.

Wie können wir am Ball bleiben?

Die Antwort lautet SAP BusinessObjects Predictive Analytics. Wir müssen es nur mit Daten füttern und es automatisiert für uns die Modellentwicklung, wobei es die Informationen für jede Entscheidung generiert und testet. Wir können die Modelle unternehmensweit einsetzen, immer genau dort, wo sie benötigt werden, um jederzeit die besten Entscheidungen zu treffen.

Ein weiterer wichtiger Aspekt, der mit dieser Lösung einhergeht, ist die Zeitersparnis: Ergebnisse liegen nicht erst nach Wochen oder sogar Monaten vor, sondern innerhalb weniger Tage. Und sobald eine Aktualisierung der Modelle anhand unserer neuesten Daten ansteht, stellt sie auch das sicher, wobei Relevanz der Modelle stets gegeben ist.

Ein Modell erstellen und Vorhersagen ableiten

In diesem Artikel erstellen wir ein Vorhersagemodell, das dann später für die weiteren Vorhersagen zum Einsatz kommt. Ich zeige euch, wie einfach es ist, ein erfolgreiches Modell auf Grundlage eines aussagekräftigen Datensets zu erstellen.

Angefangen habe ich mit einem öffentlichen Datensatz von Kaggle; der ideale Einstieg für alle, die sich mit maschinellem Lernen beschäftigen möchten. Dabei habe ich mich für den Datensatz Rossman Store Sales entschieden, da dieser die historischen Verkaufsdaten von rund 1.115 Rossmann-Filialen bereitstellt.

Den Datensatz finden Sie unter folgendem Link: https://www.kaggle.com/c/rossmann-store-sales.

Die Aufgabe bestand darin, die „Verkaufszahlen“ für jede Filiale für ein bestimmtes Jahr zu prognostizieren (z. B. 2015).

8 Schritte bis zum eigenen Vorhersagemodell

Schritt 1
Gehen wir davon aus, dass SAP HANA Studio sowie SAP BusinessObjects Predictive Analytics bereits auf deinem Computer installiert sind. Darüber hinaus benötigst du eine SAP-HANA-Serververbindung, um auf die HANA-Datenbank und -Engine zugreifen zu können.

Schritt 2
Sammle die Daten und lade die CSV-Dateien in die SAP-HANA-Datenbank. Bei der Erstellung unseres Modells kamen die Datei store.cvs mit den Informationen zu den Filialen sowie die Datei train.csv mit den historischen Daten einschließlich der Verkaufszahlen (Abb. 1.1) zum Einsatz.

SAP HANA Database

Abb. 1.1

Schritt 3
Erstelle eine Berechnungssicht für jeden Datenset (Abb. 1.2). Bringe diese dann in einer weiteren Berechnungssicht zusammen, die dann später im Predictive-Analytics-Tool verwendet wird. Das endgültige Schema der Sichten findest du in Abbildung 1.3.

Calculation View

Abb. 1.2

Final View

Abb. 1.3

Schritt 4
Weiter geht’s. Nach dem Öffnen von SAP Predictive Analytics findest du das Toolset Expert Analytics (Abb. 1.4). Bei Expert Analytics handelt es sich um ein Tool für statistische Analysen und Data Mining, mit dem du deine eigenen Vorhersagemodelle erstellen kannst, anhand derer du wiederum Prognosen über zukünftige Ereignisse stellen kannst.

Expert Analytics Toolset

Abb. 1.4

Schritt 5
Füge ein neues Datenset hinzu. Dazu kannst du wie in Abbildung 1.5 gezeigt als Quelle die Option „Download aus SAP HANA“ auswählen. So werden die Daten lokal auf deinem Rechner gespeichert und auch das Modell wird lokal ausgeführt. Alternativ kannst du auch die Option „Verbindung mit SAP HANA“ nutzen. Wie du sicher schon erraten hast, werden die Daten und das Modell dann in HANA gespeichert bzw. ausgeführt.

Add new dataset

Abb. 1.5

Schritt 6
Stelle mit deinen Anmeldedaten wie ein Abbildung 1.6 gezeigt eine Verbindung zu deinem SAP-HANA-Server her.

Connection to SAP HANA

Abb. 1.6

Schritt 7
Suche die zuvor erstellte Sicht und klicke auf „Erstellen“ (Abb. 1.7).

Create

Abb. 1.7

Schritt 8
In der Designer-Sicht stellen wir unser Prognoseschema zusammen (Abb. 1.8). Dazu beginnen wir unter Stichprobe mit der Auswahl der Daten (und beschränken uns dabei auf die Daten aus 2015). Im nächsten Schritt weisen wir in der Partitionskomponente die Trainings-, Test- und Validierungsdaten zu. Zur Klassifizierung nutzen wir den linearen Auto-Regression-Algorithmus, in dem die Variablen linear von den vorausgegangenen Werten und einem stochastischen Term abhängen. Die letzte Komponente Modellstatistik dient dann der Anzeige der Ergebnisse.

Designer Screen

Abb. 1.8

Ergebnisse
Nach dem Ausführen des Modells erhalten wir das folgenden Ergebnis (Abb. 1.9). Wie erwartet stimmt der grün markierte prognostizierte Wert nahezu mit dem tatsächlichen Wert in blau überein. Im Reiter Übersicht finden wir die Algorithmenübersicht sowie die Verteilung über die Trainings-, Test- und Validierungsdatensets (Abb. 2.0).

Result

Abb. 1.9

Result

Abb. 2.0

Fazit

Mit SAP BusinessObjects Predictive Analytics kannst du aus komplexen, in deinen Daten verborgenen Mustern konkrete und zielführende Erkenntnisse gewinnen – Erkenntnisse, die wiederum die Kundenbindung, die Verkaufszahlen und die operative Entwicklung positiv beeinflussen und Risiken im ganzen Unternehmen reduzieren. Und dadurch lassen sich natürlich unter dem Strich massive Verbesserungen im Geschäftsergebnis erzielen. Dabei kann all das hochautomatisiert erfolgen, was es umso leichter macht, dauerhaft Spitzenleistungen zu gewährleisten und viele hundert Modelle zu verwalten.

Darum möchte ich dir dringend ans Herz legen, mit SAP Business Objects Predictive Analytics ganz neue Wege in deinem Digital Enterprise zu beschreiten.

Falls du noch Fragen hast, kannst du dich gerne an uns wenden! Wir helfen dir gerne weiter.

Quelle: https://www.sap.com/germany/assetdetail/2017/05/9a00f0bc-b87c-0010-82c7-eda71af511fa.html

Autor dieses Beitrags
Andrei Orbai Associate SAP BI
Tel.: +49 (0) 7031 714 660 0
E-Mail: cluj@inspiricon.de
Die Welt der Predictive Analytics

Die Welt der Predictive Analytics

Hallo und herzlich willkommen zum ersten Artikel aus unserer Blogreihe zum Thema Predictive Analytics!

Am besten steigen wir gleich mit zwei Definitionen ein, deren Verständnis grundlegend für diesen und alle weiteren Artikel ist:

  1. Predictive Analytics umfasst mit Predictive Modellingmaschinellem Lernen und Data Mining verschiedene statistische Verfahren, die aktuelle und historische Daten analysieren, um Prognosen für zukünftige oder anderweitig unbekannte Ereignisse stellen zu können.
  2. Maschinelles Lernen ist ein kontinuierlicher Prozess, bei dem Algorithmen und Modelle ununterbrochen lernen, um Wahrnehmung (die Art und Weise, wie wir Informationen aufnehmen) und die Verarbeitung (die Art und Weise, wie wir mit Informationen umgehen) entsprechend anzupassen.

Was du von dieser Blogreihe erwarten kannst

  • Dieser erste Artikel dient als Einstieg in das Thema und soll dir einen Überblick über die Zusammenhänge liefern. Ziel ist es, dich mit dem Verhältnis zwischen Predictive Analytics, maschinellem Lernen und Unternehmensstrategie, Technologie und Unternehmenskultur vertraut zu machen.
  • In unserem zweiten Artikel werden wir dir ein auf Grundlage von SAP Predictive Analytics entwickeltes Vorhersagemodell vorstellen.
  • Im dritten Artikel wagen wir dann einen tieferen Einstieg in die theoretischen und technischen Grundlagen. Dabei wird mit jedem neuen Artikel umfassenderes technisches Fachwissen erforderlich.

Wirft man einen Blick auf die betriebswirtschaftlichen Zusammenhänge wird schnell klar, dass Unternehmer, die ihre digitalen Strategien immer wieder neu an den sich verändernden technologischen Rahmenbedingungen ausrichten, auch sicherstellen können, dass ihre Mitarbeiter den Fokus auf zukünftige Innovationen nicht verlieren und das Unternehmen vorantreiben können. Durch das strategische Setzen auf disruptive Technologien können Entscheidungsträger den Markt umkrempeln, indem sie nie dagewesene Produkte, Dienstleistungen oder Geschäftsmodelle erdenken und dabei eine Werteverschiebung zwischen Produzenten oder zum Verbraucher hin auslösen.

Der Blick in den Rückspiegel kann zwar dafür sorgen, dass der Betrieb aufrechterhalten bleibt, in Hinblick auf Geschäftserfolg und Wachstum kommt man so aber nicht weiter. Stößt ein Mitbewerber durch den Einsatz aufstrebender Technologien in ein Marktsegment vor, riskiert der Rest des Marktes den Verlust etablierter Positionen, wenn sie mit dem digitalen Reifegrad nicht Schritt halten können.

Strategisches Vorausdenken und datengetriebene Entscheidungsfindung

Zwar sind Entscheidungsträger in aller Regel keine Datenwissenschaftler, doch erkennen sie zunehmend die Macht der Daten. Durch den Einsatz von maschinellem Lernen, Big Data sowie Advanced und Predictive Analytics machen sich kleine und mittelständische Unternehmen ihre eigene Schnelligkeit und Agilität immer mehr zu Nutze, um die Wünsche ihrer Kunden besser zu erfüllen, tiefgreifende Marktveränderungen abzufedern oder als Chance zu begreifen und gestützt auf Innovationen ihren Weg an die Spitze des Marktes zu beschreiten.

Eines ist klar, Daten sind dieser Tage im Überfluss vorhanden. Unternehmen haben viele Milliarden in kostspielige Aufwandspositionen wie ERP-Systeme, Betriebstechnologien von Anlagenausrüstung über POS-Systeme und Informationsdienste investiert. Die schiere Menge an Daten heißt aber noch lange nicht, dass diese auch gewinnbringend eingesetzt werden.

Der Erfolg von maschinellem Lernen und Predictive Analytics ist sehr gut dokumentiert und ihr Wert gerade in Bereichen wie Marketing und Konsumverhalten sehr geschätzt, doch die möglichen Anwendungsbereiche gehen weit darüber hinaus.

Es gibt immer noch sehr viele Unternehmen, die ihre Umsatzplanung (als Teil ihrer Finanzprognosen) anhand manueller Eingaben erstellen, die wiederum auf persönlichen Erfahrungswerten basieren – also mehr oder weniger nach „Bauchgefühl“. Unter Umständen wird am Ende noch ein Korrekturfaktor berücksichtigt; aber wie du dir sicher vorstellen kannst, ist auch dieser nie wirklich präzise. Die Erstellung und Einbeziehung eines Vorhersagemodells kann mit Blick auf ein solches Szenario also einen nicht unerheblichen Vorteil in puncto Planungsgenauigkeit ausmachen.

Predictive und Machine Learning ist für die meisten Menschen noch ein sehr neues Feld. Dank der vielfältigen Ausprägungen, die alle unterschiedliche Lösungen und Herangehensweisen erforderlich machen, ergeben sich nahezu unendliche Möglichkeiten, die Vorteile nutzbar zu machen.

Die aktuellen Architekturparadigmen der SAP im Bereich Predictive Analytics

Beim Trainieren eines Vorhersagemodells mit allen verfügbaren Daten steht an allererster Stelle die Kolokation der Daten und der Algorithmenumsetzung (die Predictive-Modelling-Engine).

Hier sind zwei Szenarien möglich:

  1. Zum einen kann die Modelling-Engine zu den Daten gebracht werden (was Datenbankanbieter und die Big-Data-Plattformen sehr gut verstanden haben), so auch SAP mit Machine-Learning-Bibliotheken wie SAP Predictive Analytics Library und SAP Automated Predictive Library sowie die R- und TensorFlow-Integration unter SAP HANA (wobei die letzteren Zwei in Zukunft eine engere Integration als derzeit benötigen).
  2. Weiterhin ist es möglich, die Daten zur Modelling-Engine zu bringen (wobei die meisten Cloud-Umgebungen für Predictive und Machine Learning genau dieses Prinzip verfolgen). Dies gilt auch für die Machine-Learning-Umgebung SAP Leonardo. Diese Cloud-Umgebungen müssen schon bald auch hybride Szenarien unterstützen, damit diese Herausforderung von einem Problem zu einer weiteren Gestaltungsoption wird.

Unternehmenskultur spielt neben der Technologie eine ebenso bedeutsame Rolle

Ganz egal, wie ausgereift die Analytics-Lösungen im Unternehmen auch sein mögen, lässt sich kein nennenswerter Vorteil daraus schöpfen, wenn sie nicht von Menschen mit entsprechendem Fähigkeiten eingesetzt werden. Wenn sich die Finanzabteilung auf das Erbsenzählen beschränkt und mit ihren Dashboards auch weiterhin nur den Blick in den Rückspiegel wagt, werden lediglich die gleichen alten Prozesse unter Einsatz fortschrittlicherer Technologien automatisiert.

Führungsstärke erfordert gezielte Anstrengungen – gestützt durch Schulung und Mentoring – bei der Weiterentwicklung der Predictive-Analytics-Fertigkeiten im Team. Wird das Team dieser Herausforderung nicht gerecht, lässt es sich nicht vermeiden, diese Fähigkeiten anderswo zu suchen.

In einer immer schnelllebigeren Geschäftswelt müssen sich Unternehmen auf Daten stützen, um erfolgreich zu sein. Ein datengestütztes Unternehmen kann aber nur dann entstehen, wenn die Verantwortlichen den Puls des Unternehmens unnachgiebig messen, überwachen, vorhersagen und entsprechend handeln und dabei kontinuierlich und automatisiert vorgehen. Um dies zu erreichen, muss das Unternehmen den Wert der Daten unternehmensweit kommunizieren, als Katalysator für den kulturellen Wandel hin zur einem datengestützten Vorgehen fungieren und zudem – und das ist der wichtigste Punkt – dabei auf maschinelles Lernen im gesamten Unternehmen setzen.

Dabei gilt es Technologien, Datenstrategie und Unternehmenskultur zu berücksichtigen. Das Wichtigste ist jedoch, den ersten Schritt auf diesem Weg zu wagen.

Verpassenicht unseren nächsten Artikel zum Thema Predictive Analytics. Folge uns auf Facebook, Twitter, XING oder LinkedIn, um immer auf dem Laufenden zu bleiben.

Quelle: Wikipedia, http://blog-sap.com

Autor dieses Beitrags
Ovidiu Costea Consultant SAP BI
Tel.: +49 (0) 7031 714 660 0
E-Mail: cluj@inspiricon.de
künstliche Intelligenz

Big Data und künstliche Intelligenz – ein mächtiges Duo, das unsere Zukunft mitgestalten wird

Mit SAP wird künstliche Intelligenz Wirklichkeit

Big Data mit intelligenten Maschinen auszuwerten, ist schon lange keine Zukunftsmusik mehr. SAP hat möglich gemacht, was bis vor einigen Jahren noch als Träumerei galt. Basierend auf SAP HANA hat SAP mehrere Softwarekomponenten ins Leben gerufen, die eigenständig denken und Daten im großen Stil auswerten. Mittlerweile kann die Software Gesichter und Objekte erkennen sowie große Analysen ausführen, die manuell kaum möglich und vorstellbar wären.

Künstliche Intelligenz (KI) ist dank SAP keine Vision mehr, sondern zur Realität geworden.

SAP Clea und SAP Leonardo: Künstliche Intelligenz auf dem Vormarsch

SAP hat seine Plattform HANA um eine neue Version ergänzt. Daneben wurden zahlreiche KI- und IoT-Services (Internet of Things, zu deutsch: Internet der Dinge) auf den Markt gebracht.
Die neue Software von SAP – SAP Cleaist in die SAP Cloud integriert und kann eigenständig lernen, wobei sie keine explizite Programmierung mehr benötigt. Die analytische Intelligenz wird bereits von Unternehmen wie der Munich RE und der europäischen Raumfahrtagentur genutzt. Die Versicherungsexperten der Munich Re kalkulieren beispielsweise laufend die Gefahr von Waldbränden, wobei sie Daten über Vegetationsverläufe heranziehen. Diese Berechnungen werden durch die intelligente Software unterstützt und Big Data wird im großen Stil ausgewertet.

SAP Leonardo heißt das IoT-Lösungsportfolio von SAP.

Wie schon der Namensgeber Leonardo da Vinci arbeitet auch SAP Leonardo interdisziplinär und übergreifend – was eine elementare Anforderung für das Internet der Dinge ist. Informationen aus unterschiedlichen Unternehmensbereichen werden in Betracht gezogen, sodass auf dieser Basis neue Lösungen und Geschäftsmodelle entwickelt werden können. Die Intention von SAP Leonardo ist es, potenzielle Kunden bei der Findung ihrer IoT-Strategie zu unterstützen und passende Lösungen für ihre individuellen Anforderungen auszuwählen.

Denn eines steht fest: die eine richtige Software für das IoT oder KI gibt es nicht. Meistens handelt es sich um ein Zusammenwirken aus mehreren Anwendungen.

Der digitale Kern: Die SAP Enterprise Suite S/4HANA

S/4HANA wird bereits von über 4.000 Unternehmen in 25 Ländern genutzt. Diese ist der digitale Kern der Transformation, die für das Internet der Dinge oder KI/Machine Learning eingesetzt werden kann. SAP stellte eine Reihe von Ergänzungen in der Cloud vor, darunter Connected Logistics, Vehicles, Manufacturing, Assets, Retail und Future Cities. Damit lassen sich unter anderem Fahrzeugflotten managen, Qualitätsebenen kontrollieren und Routen berechnen.

Im Bereich der künstlichen Intelligenz und den Machine Learning-Services bietet SAP unter anderem die folgenden Services in der SAP Cloud an:

  • Resume Matching für das Recruiting
  • Cash App zur Analyse der Zahlungsmoral
  • Social Media Customer Service
  • Brand Intelligence
  • Fraud Detection für Versicherungen und Banken

SAP Fiori – die neue SAP UI

SAP Fiori ist eine Initiative, mit der die Endanwender-Erfahrung verbessert wird (dazu mehr auf unserer Webseite und auf unserem Blog). Mit Fiori 2.0 sollen sämtliche SAP-Anwendungen harmonisiert und somit untereinander kompatibel werden. SAP Fiori beinhaltet Verbesserungen in den Bereichen Design und Benutzerfreundlichkeit.

Und auch hier kommt KI zum Einsatz. Der Anwender wird durch einen Co-Piloten unterstützt, der dessen Handlungen voraussieht und diese entsprechend vorbereitet. Mit der integrierten Sprachsteuerung werden beispielsweise Arbeitsabläufe bei Wartungen oder im Lager verbessert. Die künstliche Intelligenz wertet Lieferanten aus und ordnet diese nach einem eingestellten Anforderungsprofil in Kategorien ein.

Inspiriert: Big Data spielend einfach auswerten

Zusammen mit der künstlichen Intelligenz sowie Big Data und der Unterstützung durch SAP Fiori kann noch effektiver automatisiert und ausgewertet werden. Die Software versucht zu erahnen, welche Handlungen der Nutzer durchführen möchte. Dies führt zu einer Effektivitätssteigerung und einer höheren Geschwindigkeit.

Mit SAP Fiori kann Big Data im großen Stil analysiert und die wichtigen Geschäftskennzahlen automatisiert überwacht werden. Anomalien, Trends und Muster werden der verantwortlichen Person automatisch auf einer den Benutzer in den Mittelpunkt stellenden Oberfläche mitgeteilt. Die Analysen erfolgen auf einer zentralen Benutzeroberfläche, die eine intuitive Bedienung ermöglicht. Komplexe Modifikationen von Ein- und Ausgabeparametern sind nicht mehr erforderlich.

Die künstliche Intelligenz sorgt dafür, dass die Algorithmen auch ohne Hilfe von Fachabteilungen aussagekräftige Ergebnisse liefern. Das maschinelle Lernen zielt vornehmlich darauf ab, Zusammenhänge und Muster in Daten zu erkennen und diese auf neue Datensätze zu übertragen. Die dafür benötigten Algorithmen basieren auf Statistik, Wahrscheinlichkeitsrechnung und Algebra.

Für SAP Application Intelligence sind die Daten der Treibstoff für maschinelles Lernen.

Deep Learning: das haben die Maschinen den Menschen voraus

Ein Bereich des maschinellen Lernens ist das Deep Learning:
Bei diesem werden neuronale Netze mit großen Datenmengen geflutet. Dadurch soll die Software in der Lage sein, z.B. Gesichter zu erkennen, Gegenstände zuzuordnen und Sprache zu verstehen. Fähigkeiten, die immer weiter verbessert und zunehmend in der Robotik eingesetzt werden.

Auch im medizinischen Bereich eröffnen sich durch KI neue Anwendungsmöglichkeiten:
Zukünftig sollen die Daten einzelner Krebspatienten mit Millionen Krankenakten abgeglichen werden, wodurch eine individualisierte Präzisionsmedizin ermöglicht werden soll.

Die künstliche Intelligenz funktioniert für die breite Masse und liefert vielversprechende Ergebnisse. Die Software wird immer mehr zu einem Generalisten, der in allen Bereichen eingesetzt werden kann. Dabei bringt die SAP Application Intelligence Software Zusammenhänge ans Licht, die Menschen normalerweise nicht erkennen würden. Menschliche Mitarbeiter übersehen aus Zeitmangel oftmals wichtige Daten, die daher im Alltag unentdeckt bleiben.

Unser Fazit

Künstliche Intelligenz hat schon heute Eingang in Business Intelligence-Lösungen gefunden. Es werden somit bereits Datenanalysen in den Unternehmen gesteuert, zum Beispiel zum Auffinden von Anomalien oder dem automatisierten Strukturieren und Aufbereiten von Daten. Weiterhin werden Algorithmen aus dem Bereich der KI oft eingesetzt, um Datenströme zu überwachen.

Das intelligente und integrative Zusammenspiel von den neuen SAP Komponenten wie Clea, Leonardo oder Fiori basierend auf der SAP HANA Cloud und On-Premise-Lösungen, inspiriert Inspiricon stetig zur Suche nach innovativen Service Dienstleistungen für unsere Kunden.

Kontaktieren Sie uns, wenn auch Sie neugierig auf neue und ungeahnte (Geschäfts-) Möglichkeiten sind!

Autor dieses Beitrags
Claudio Volk Vorstand
Tel.: +49 (0) 7031 714 660 0
E-Mail: info@inspiricon.de