2018-06-13 05:03:28

Integration und Flexibilität sind die aktuellen Analytic-Trends

Business-Intelligence, Big-Data, IoT und künstliche Intelligenz haben eins gemeinsam: Sie alle drehen sich um Daten und ihre Auswertung. Um bestmöglich von den neuen Technologien zu profitieren, benötigen Unternehmen geeignete Datenplattformen und Analytics-Lösungen.

Die Fähigkeit, Daten zu sammeln und auszuwerten, ist heute essenziell für den Geschäftserfolg. Datenanalysen ermöglichen exakte Business-Reports, die den Fachabteilungen zeigen, wo sie im Hinblick auf die anvisierten Ziele stehen. Sie bilden die Basis für fundierte Entscheidungen und die Entwicklung neuer Services oder Geschäftsmodelle. Zudem bauen moderne Technologien, wie das Internet der Dinge und künstliche Intelligenz, auf Daten auf. Wer den Anschluss nicht verpassen möchte, muss die richtige Basis schaffen. Eine passende Datenplattform und geeignete Analytics Tools zu etablieren, wird zur Top-Priorität. Die aktuellen Trends zeigen, worauf Unternehmen achten sollten.

Trend 1: Einheitliche Lösungen für verschiedene Umgebungen

Unternehmen brauchen heute die Flexibilität, Software wahlweise in der Public-Cloud, in der Private-Cloud oder klassisch auf einem Server im eigenen Rechenzentrum installiert zu betreiben. Sie erwarten daher Lösungen, die in allen Umgebungen gleich aussehen und gleich funktionieren. So können sie ganz nach Bedarf Anwendungen in die Cloud verschieben oder auch wieder ins Rechenzentrum zurückholen. Viele Unternehmen lagern zum Beispiel ihre Test- oder Entwicklungsumgebung in die Cloud aus und wünschen sich dafür eine Datenbank, die sich dort genauso verhält wie On-Premises. Hersteller berücksichtigen diese Anforderung zunehmend. Dabei setzen sie auf Technologien wie Docker-Container und die Container-Orchestrierungs-Lösung Kubernetes, mit der sich Software einheitlich auf verschiedenen Plattformen bereitstellen lässt. Ein Beispiel für eine solche Cross-Plattform-Lösung ist die Datenplattform „IBM Db2 Warehouse“.

Trend 2: Einen zentralen Datentopf schaffen

In der Vergangenheit hatten Unternehmen häufig viele verschiedene Datentöpfe für verschiedene Anwendungen. Gerade im Data-Science-Umfeld sind die Anwender häufig explorativ und besonders agil unterwegs und schaffen sich eigene Datenbereiche. Das führt dazu, dass Analyse-Ergebnisse auf unterschiedlichen Quellen beruhen und nicht vergleichbar sind. Analytics-Lösungen und künstliche Intelligenz können jedoch nur dann ihr volles Potenzial entfalten, wenn sie auf einen einheitlichen, zentralen Datenpool zugreifen, der die Daten aus verschiedenen Quellen sammelt und für alle Anwendungen und Unternehmensbereiche zur Verfügung stellt. Dabei kann es sich um ein Data Warehouse in verschiedenen Modellierungen handeln oder einen Data Lake – oder auch um eine Kombination aus beidem.

Trend 3: Strukturierte und unstrukturierte Daten verbinden

Die meisten Unternehmen verfügen über ein Data-Warehouse als Datenplattform. Es speichert strukturierte Daten und stellt sie qualitätsgesichert zur Verfügung. Ein Data-Warehouse kommt vorwiegend für Business-Analytics oder Data-Mining zum Einsatz. Für Big-Data-Anwendungen, die unstrukturierte Daten analysieren, benötigt man dagegen einen Data-Lake, etwa auf Basis von Cluster-Frameworks wie Hadoop oder Spark. Viele Unternehmen betreiben heute beides parallel: ein Data-Warehouse und einen Data-Lake. Der Trend jedoch geht hin zu Anwendungen, die sowohl strukturierte als auch unstrukturierte Daten benötigen. Ein Beispiel dafür sind Chatbots, die als User Interface mit dem Anwender in einem natürlichen Gespräch interagieren. Dafür brauchen Unternehmen Werkzeuge, die sowohl auf die Daten im Data-Lake als auch auf die Daten im Data-Warehouse zugreifen können und diese Informationen dann gebündelt für die Analyse und zur weiteren Verarbeitung zur Verfügung stellen. 

Trend 4: Eine zentrale Data-Science-Plattform etablieren

An das Thema Data-Science sind viele Unternehmen in der Vergangenheit eher experimentell herangegangen. Sie haben einmal ausprobiert, was überhaupt möglich ist. Dabei hat jeder Data-Scientist seine eigenen Tools verwendet. Beliebt sind zum Beispiel Open-Source-Lösungen wie R und RStudio. Zunehmend lassen Unternehmen diese experimentelle Phase jetzt hinter sich und bündeln ihre Data-Science-Aktivitäten auf einer Plattform. Diese stellt alle Tools und Algorithmen für alle Beteiligten zentral zur Verfügung. Das erhöht die Effizienz und schafft Transparenz. Auf der zentralen Plattform sieht jeder Data-Scientist, welche Projekte schon durchgeführt wurden und wo es Erfolge oder Probleme gab. Außerdem kann er auf bereits erstellte Machine-Learning-Modelle oder Code-Abschnitte zugreifen und sie wiederverwenden. Das spart viel Zeit. Eine Data-Science-Plattform benötigt eine Schnittstelle zur Data-Plattform: Während die Data-Plattform die Datenbasis zur Verfügung stellt, bietet die Data-Science-Plattform die Technologien für die Analyse.

Trend 5: Kognitive Cloud-Services in On-Premises-Applikationen einbinden

KI-Funktionalität steht häufig nur in der Cloud zur Verfügung. Um sie zu nutzen, müssen Unternehmen ihre Daten erst einmal dorthin hochladen. Davor schrecken viele jedoch aus Sicherheits- und Datenschutzgründen zurück. Ein Beispiel: Ein Unternehmen möchte eine intelligente Suchfunktion für Support-Unterlagen einführen, will diese Dokumente aber nicht aus der Hand geben. Gefragt sind daher Lösungen, die es ermöglichen, die kognitiven Funktionen aus der Public-Cloud einfach in eine Private-Cloud oder On-Premises-Applikation einzubinden. Die Daten können dann in der Datenplattform im eigenen Rechenzentrum bleiben. Die KI-Funktionalität der Watson-Services lässt sich zum Beispiel schon auf diese Weise in eigene Applikationen integrieren. 

Fazit

Integration und Flexibilität: Das sind die Schlagworte, mit denen sich die aktuellen Data- und Analytics-Trends zusammenfassen lassen. Für fortgeschrittene Anwendungen müssen Unternehmen in der Lage sein, strukturierte und unstrukturierte Daten zu kombinieren. Sie wollen frei entscheiden können, ob sie ihre Daten On-Premises, in der Private Cloud oder in der Public Cloud speichern und wo sie ihre Lösungen betreiben. Und nicht zuletzt möchten sie kognitive Funktionen aus der Cloud auch in On-Premises-Applikationen integrieren. Wer bei der Wahl seiner Plattformen und Tools auf diese Aspekte achtet, ist für die Zukunft gut aufgestellt.

mat

Druckversion