Mittwoch, 13. November 2019

IT und Strategie Echtzeit-Analysen - schneller als der Kunde fragen kann

In-Memory-Datenbanken feiern dank KI und Advanced Analytics einen rasanten Aufstieg. Viele Entscheider kommen schon heute nicht mehr ohne sie aus - wie diese Beispiele zeigen.

Kundenwünsche, Risiken und Handlungsbedarf erkennen - Daten ermöglichen heute Einblicke in sämtliche relevante Bereiche eines Unternehmens. Mehr noch: Sie erlauben es, auf einer fundierten Basis die richtigen Entscheidungen zu treffen. Kaum verwunderlich also, dass 83 Prozent der Befragten dieses Jahr in einer Umfrage des Digitalverbands Bitkom angaben, Big Data habe eine große Bedeutung für die Wettbewerbsfähigkeit deutscher Unternehmen. Das waren neun Prozentpunkte mehr als 2018. Gleichzeitig sagten jedoch nur 59 Prozent der Teilnehmer, sie nutzten Big Data bereits. Dabei lassen sich auf der Basis von Daten Erkenntnisse gewinnen und Trends identifizieren, auf die dann in Echtzeit - im besten Fall sogar im Voraus - reagiert werden kann.

Betrugsbekämpfung und besserer Kundenservice

Beispiel Finanzdienstleister: Sie entlarven Betrügereien, bevor Schaden entsteht. Dazu werden Daten bei Transaktionen live erfasst, analysiert und mit historischen Daten aus früheren Transaktionen abgeglichen. Software erkennt beispielsweise, ob die Zeichenfolge eines Passworts im selben Rhythmus wie üblich eingetippt wird, ob unübliche Summen abgebucht werden oder Eingabegeräte und Orte nicht zu den bisherigen Verhaltensmustern des Kunden passen.

Call-Center wiederum optimieren ihren Kundenservice, indem sie in Echtzeit Daten aus Protokollen, Online-Tracking, Sprachdialogsystemen und IT-Support-Systemen auswerten. So lässt sich das Kundenverhalten live modellieren, und das System oder der von ihm unterstützte Mitarbeiter weiß im besten Fall vorab, welche Frage der Kunde stellen will.

Auch in modernen Fabriken und smarten Industrieanlagen hat die Echtzeit Einzug gehalten. Dank unzähliger Sensordaten erhalten Kunden so zum Beispiel stets aktuelle Informationen zum Stand ihrer Bestellung vom Lager bis zur Auslieferung. Oder das System meldet, dass ein bestimmtes Teil in einer Maschine demnächst ersetzt werden muss. So können Ersatzteile rechtzeitig geordert und eingebaut werden, bevor die Maschine ausfällt.

Neues Konzept für die Datenverarbeitung

Für solche Anwendungen brauchen Firmen die richtige IT-Infrastruktur. Denn es genügt nicht, Daten zu produzieren, Unternehmen müssen auch schnell darauf zugreifen können. "Dazu bedarf es eines neuen Konzepts für die Datenverarbeitung, des sogenannten In-Memory-Computings", erklärt Frank Kuypers, Industry Technology Specialist bei Intel.

Bei herkömmlichen Systemen liegen die Daten auf einer Festplatte oder werden über ein Netzwerk bereitgestellt. Für die Verarbeitung werden sie in den lokalen Systemspeicher (RAM) geladen. Von dort rufen die datenverarbeitenden Prozessoren, die Central Processing Units (CPUs), diese ab. Dieser Vorgang ist vergleichsweise langwierig und führt zu Engpässen. Bei In-Memory-Analytics geht es hingegen darum, Daten von den Storage-Tiers zur CPU hin zu verschieben. Intel ermöglichst dies mit dem persistenten Intel Optane DC Speicher und skalierbaren Intel Xeon Prozessoren. Der Clou: "Indem größere Datenmengen näher am Prozessor vorgehalten werden, lassen sich Analysen und Erkenntnisgewinn durch einen schnelleren Zugriff beschleunigen. Die Reaktionszeiten verringern sich, die Gesamtleistung steigt", so Kuypers. Umsetzen lässt sich dies mit In-Memory-Kernsystemen wie SAP HANA, Oracle, IBM oder Microsoft.

Kapazitäten kostengünstig erweitern

Die Vorteile zeigt das Beispiel Evonik: Damit die Entscheider des Chemiekonzerns wechselnde Kundenanforderungen und Versorgungsketten bedienen können, müssen sie Analysen und Berichte in Echtzeit auswerten. Um Kapazitäten kostengünstig zu erweitern, hat sich Evonik für Server mit persistenten Intel Optane DC Speichermodulen entschieden. Das sind Hochgeschwindigkeitsspeicher, die nahe an der CPU sitzen und dennoch Eigenschaften wie klassische Festplatten besitzen. Das beschleunigt die Verarbeitung zusammenhängender Datenberge in In-Memory-Datenbanken wie die bei Evonik verwendete SAP HANA Plattform erheblich.

Der einstige Widerspruch aus Echtzeit-Zugriff und großem Speicherbedarf löst sich somit auf. Kostengünstige Technologien, um große Datenmengen für KI oder Advanced Analytics fast verzögerungslos in der Nähe schneller Prozessoren vorhalten zu können, werden zum neuen Standard.

Wie Sie In-Memory-Analytics implementieren und mehr Wertschöpfung erzielen

Erfahren Sie, wie Sie In-Memory-Analytics nutzbringend einsetzen und mit den gewonnenen Erkenntnissen maximale Wertschöpfung erzielen. Zum Leitfaden

 


manager-magazin.de ist weder für den Inhalt noch für ggf. angebotene Produkte verantwortlich.

Anzeige

Was sind Content-Partner?

© manager magazin 2019
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung