Daten sind das Gold des digitalen Zeitalters. Sie helfen Unternehmen nicht nur, ihre Ziele schneller zu erreichen und die Wettbewerbsposition zu stärken, sie ermöglichen es auch, die Kunden besser zu verstehen und Produkte und Services gezielter und schneller an den Markt anzupassen. Im Gegensatz zu Gold ist der Rohstoff Daten aber keineswegs endlich. Ganz im Gegenteil: Etwa alle 18 Monate verdoppeln sich die Terabytes an strukturierten und unstrukturierten digitalen Informationen. Die Herausforderung besteht vielmehr darin, aus dem unüberschaubaren Informationsfluss die wertvollen Daten herauszufiltern.
Lange Zeit war die Nutzung und Analyse von Big Data ein Thema für IT- und Datenspezialisten. Diese Ära ist nun vorbei, denn 2016 wird Big Data endlich im Mainstream ankommen.
1. Ausgereifte Standardlösungen
Big-Data-Pioniere hatten keine andere Wahl, als ihre eigenen Cluster und Umgebungen zu entwickeln. Diese auf Hadoop, Spark oder anderen aufkommenden Technologien beruhenden Spezialsysteme zu entwickeln, zu verwalten und zu warten ist allerdings extrem zeit- und kostenaufwendig. So beträgt die durchschnittliche Entwicklungszeit sechs Monate. So viel Zeit hat heute niemand mehr. Dies ist kein Problem, denn dank Cloud-Diensten und Anwendungen mit vorkonfigurierten Automatisierungen und Standards wird 2016 ein sehr viel größerer Anwenderkreis auf ausgereifte Lösungen zugreifen können.
2. Datenvirtualisierung
Unternehmen erfassen heute nicht nur eine immer größer werdende Bandbreite an Daten, sie verwenden auch eine Vielzahl an Algorithmen, Analysen und Software-Anwendungen. Entwickler und Analytiker verlieren dadurch zum Teil schnell den Überblick, wo welche Daten gespeichert sind oder haben Probleme mit den Zugriffsverfahren der jeweiligen Repositories. Daher werden Unternehmen 2016 nicht mehr nur auf eine einzelne Technologie setzen. Sie werden zukünftig vermehrt Daten virtualisieren. Die Benutzer und Anwendungen greifen dann über SQL, REST und andere Skriptsprachen auf diese virtualisierten Daten zu. Die richtige Technologie zur Datenvirtualisierung bietet dabei die gleiche Performance wie die nativen Methoden (einschließlich Rückwärtskompatibilität und Sicherheit).
3. Datenstromorientierte Programmierung
In den Anfängen des Big-Data-Einsatzes dominierte die manuell programmierte Datenverarbeitung. Neue Verwaltungswerkzeuge bringen nun bessere Voraussetzungen für eine anspruchsvollere Datenverarbeitung mit und werden die ursprünglichen Big-Data-Technologien in den Hintergrund drängen. Darüber hinaus wird sich die datenstromorientierte Programmierung weiter etablieren. Diese setzt auf eine starke Parallelverarbeitung, erleichtert die Wiederverwendung von funktionalen Operatoren und unterstützt nahtlos Funktionen für Statistik und maschinelles Lernen.
4. Künstliche Intelligenz
2016 wird vermehrt künstliche Intelligenz bei der normalen Datenverarbeitung eingesetzt, wie z. B. maschinelles Lernen, automatische Texterkennung und Property-Graphen. Auf diese Technologien kann im Big-Data-Umfeld bereits jetzt über API-Bibliotheken zugegriffen werden. Nun werden sie zum Standard in IT-Werkzeugen für Echtzeit-Analysen und Datenwissenschaft.
5. Das Internet der Dinge und die Cloud
Big-Data-Cloud-Dienste sind die heimlichen Treiber des Internets der Dinge (IoT). Cloud Services werden vermehrt Sensordaten erfassen und für Big-Data-Analysen und -Algorithmen bereitstellen. Diese Analysen werden dann beispielsweise in der Entwicklung genutzt. So werden Fertigungsunternehmen mit Hilfe hochsicherer IoT-Cloud-Services Produkte entwickeln, die auf Grundlage von Datenanalysen eigenständig Aktionen ausführen. Eingriffe durch Menschen werden noch seltener nötig.
6. Datenvorschriften fördern die Hybrid Cloud
Je mehr über die Herkunft der Daten bekannt ist, desto leichter können Regierungen nationale Datenvorschriften durchsetzen. Das bezieht sich nicht nur auf einen Sensor oder eine Datenbank, sondern auch auf die „Nationalität“ der Daten. Internationale Unternehmen, die die Cloud nutzen wollen, geraten dadurch in ein Geflecht widerstrebender Interessen. Daher werden globale Unternehmen zunehmend Hybrid-Cloud-Infrastrukturen und regionale Rechenzentren etablieren. Diese stellen gewissermaßen den lokalen Vertreter eines größeren Cloud-Dienstes dar. Damit senken Unternehmen nicht nur Kosten, sondern stellen auch die Compliance sicher.
7. Herkunftsnachweise
Bislang war das Wissen um die Datenherkunft eher eine entbehrliche Funktionalität, weil ein Großteil der Daten aus vertrauten Datenbanken stammte. Im Zeitalter von Big Data jedoch ist die Kontrolle der Datenherkunft unverzichtbar, weil Kunden verstärkt Unternehmensdaten mit Datensätzen von Drittanbietern vermischen. Einige dieser neuen Kombinationen werden hochwertige und anbieterverifizierte Daten enthalten. Andere hingegen werden Daten verwenden, die offiziell nicht perfekt, aber für Testreihen ausreichend sind. Entspringen daraus zufällig wertvolle Erkenntnisse, können Manager anhand der Datenherkunft beurteilen, wie aufwendig eine hochwertigere Datenerhebung ist.
8. Klassifizierungslösungen
Verbraucher sorgen sich verstärkt darum, wie Daten erhoben, geteilt, gespeichert und leider auch gestohlen werden. Der Ruf nach einem besseren gesetzlichen Schutz von persönlichen Informationen wird lauter werden und Politiker sowie Experten werden immer wieder Debatten über ethische Prinzipien und Grenzen anstoßen. Als Reaktion darauf werden Unternehmen zunehmend Klassifizierungssysteme einsetzen, die Dokumente und Daten in bestimmte Kategorien einteilen, um dann vordefinierte Richtlinien für Zugang, Aufbereitung und Verschleierung anwenden zu können. Auch die Gefahr von Cyber-Attacken wird bestehen bleiben. Die Angriffe werden sogar immer ausgefeilter. Folglich kontrollieren Unternehmen intensiver den Zugang und die Verwendung von Daten und verstärken ihre Sicherheitsmaßnahmen.
9. Experimentelle Datenlabore
Da Unternehmen mehr Hypothesen überprüfen müssen, steigt in allen Branchen der Bedarf nach professionellen Datenwissenschaftlern. So werden beispielsweise Banken, Versicherer und Bonitätsprüfer stärker auf Algorithmen zur effizienteren Risikobewertung und Betrugsbekämpfung vertrauen. Doch meistens lassen sich diese Entscheidungen nur mühsam in eindeutige Regeln fassen. Folglich werden Unternehmen sich einen harten Wettkampf um die besten Algorithmen liefern und zahlreiche Experimente hinsichtlich Ausfallrisiko, Garantien für Versicherungspolicen und Betrugsbekämpfung durchführen.
10. Datenlaien werden zunehmend wie Datenwissenschaftler arbeiten
Komplexe statistische Verfahren werden wohl weiterhin die Domäne von Datenwissenschaftlern bleiben – im Gegensatz zu datenbasierten Entscheidungen. Dieses Jahr werden benutzerfreundlichere Big-Data-Suchwerkzeuge zur Verfügung stehen. Damit können Business-Analytiker den unternehmenseigenen Hadoop-Cluster schneller nach Datensätzen durchsuchen und diese in neuen Kombinationen zusammenstellen. Anhand von selbstlernenden Untersuchungsverfahren lassen sich sogar Analysen durchführen. Sobald diese Möglichkeiten einem größeren Anwenderkreis offenstehen, wird die eigenständige Big-Data-Nutzung zunehmen und die Qualität von Hypothesen und Experimenten verbessert. Die nächsten Innovationen werden zwangsläufig folgen.
Fazit
An Big Data führt kein Weg mehr vorbei. Die Werkzeuge für datenbasierte Entscheidungen stehen bereit. Jetzt liegt es an den Unternehmen, schnell Nutzen aus den neuen Möglichkeiten zu ziehen. Nur Unternehmen, die aus ihren Daten schnell die richtigen Erkenntnisse ziehen, werden sich im globalen Wettbewerb behaupten können.