ERP-Technologie

Big Data Trends 2016

11. März 2016 von Reinhard Harter

Big Data Trends 2016

Daten sind das Gold des digitalen Zeitalters. Sie helfen Unternehmen nicht nur ihre Ziele schneller zu erreichen und die Wettbewerbs-
position zu stärken, sie ermöglichen es auch, die Kunden besser zu verstehen und Produkte und Services gezielter und schneller an den Markt anzupassen. Im Gegensatz zu Gold ist der Rohstoff Daten aber keineswegs endlich. Ganz im Gegenteil: Etwa alle 18 Monate verdoppeln sich die Terabytes an strukturierten und unstrukturierten digitalen Informationen. Die Herausforderung besteht vielmehr darin, aus dem unüberschaubaren Informationsfluss die wertvollen Daten zu filtern.

Lange Zeit war die Nutzung und Analyse von Big Data ein Thema für IT- und Datenspezialisten. Diese Ära ist nun vorbei, denn 2016 wird Big Data endlich im Mainstream ankommen.
1. Ausgereifte Standardlösungen

Big Data-Pioniere hatten keine andere Wahl, als ihre eigenen Cluster und Umgebungen zu entwickeln. Diese auf Hadoop, Spark oder anderen aufkommenden Technologien beruhenden Spezialsysteme zu entwickeln, zu verwalten und zu warten ist allerdings extrem zeit- und kostenaufwendig. So beträgt die durchschnittliche Entwicklungszeit sechs Monate. So viel Zeit hat heute niemand mehr. Dies ist kein Problem, denn dank Cloud-Diensten und Anwendungen mit vorkonfigurierten Automatisierungen und Standards wird 2016 ein sehr viel größerer Anwenderkreis auf ausgereifte Lösungen zugreifen können.
2. Datenvirtualisierung 

Unternehmen erfassen heute nicht nur eine immer größer werdende Bandbreite an Daten, sie verwenden auch eine Vielzahl an Algorithmen, Analysen und Software-Anwendungen. Entwickler und Analytiker verlieren dadurch zum Teil schnell den Überblick, wo welche Daten gespeichert sind oder haben Probleme mit den Zugriffsverfahren der jeweiligen Repositories. Daher werden Unternehmen 2016 nicht mehr nur auf eine einzelne Technologie setzen. Sie werden zukünftig vermehrt Daten virtualisieren. Die Benutzer und Anwendungen greifen dann über SQL, REST und andere Skriptsprachen auf diese virtualisierten Daten zu. Die richtige Technologie zur Datenvirtualisierung bietet dabei die gleiche Performance wie die nativen Methoden (einschließlich Rückwärtskompatibilität und Sicherheit).
3. Datenstromorientierte Programmierung 

In den Anfängen des Big Data-Einsatzes dominierte die manuell programmierte Datenverarbeitung. Neue Verwaltungswerkzeuge bringen nun bessere Voraussetzungen für eine anspruchsvollere Datenverarbeitung mit und werden die ursprünglichen Big Data-Technologien in den Hintergrund drängen. Darüber hinaus wird sich die datenstromorientierte Programmierung weiter etablieren. Diese setzt auf eine starke Parallelverarbeitung, erleichtert die Wiederverwendung von funktionalen Operatoren und unterstützt nahtlos Funktionen für Statistik und maschinelles Lernen.
4. Künstliche Intelligenz

2016 wird vermehrt künstliche Intelligenz bei der normalen Datenverarbeitung eingesetzt, wie z. B. maschinelles Lernen, automatische Texterkennung und Property-Graphen. Auf diese Technologien kann im Big Data-Umfeld bereits jetzt über API-Bibliotheken zugegriffen werden. Nun werden sie zum Standard in IT-Werkzeugen für Echtzeit-Analysen und Datenwissenschaft.
5. Das Internet der Dinge und die Cloud 

Big Data-Cloud-Dienste sind die heimlichen Treiber des Internets der Dinge (IoT). Cloud Services werden vermehrt Sensordaten erfassen und für Big Data-Analysen und -Algorithmen bereitstellen. Diese Analysen werden dann beispielsweise in der Entwicklung genutzt. So werden Fertigungsunternehmen mit Hilfe hochsicherer IoT-Cloud-Services Produkte entwickeln, die auf Grundlage von Datenanalysen eigenständig Aktionen ausführen. Eingriffe durch Menschen werden noch seltener nötig.
6. Datenvorschriften fördern die Hybrid Cloud

Je mehr über die Herkunft der Daten bekannt ist, desto leichter können Regierungen nationale Datenvorschriften durchsetzen. Das bezieht sich nicht nur auf einen Sensor oder eine Datenbank, sondern auch auf die „Nationalität“ der Daten. Internationale Unternehmen, die die Cloud nutzen wollen, geraten dadurch in ein Geflecht widerstrebender Interessen. Daher werden globale Unternehmen zunehmend Hybrid-Cloud-Infrastrukturen und regionale Rechenzentren etablieren. Diese stellen gewissermaßen den lokalen Vertreter eines größeren Cloud-Dienstes dar. Damit senken Unternehmen nicht nur Kosten, sondern stellen auch die Compliance sicher.
7. Herkunftsnachweise 

Bislang war das Wissen um die Datenherkunft eher eine entbehrliche Funktionalität, weil ein Großteil der Daten aus vertrauten Datenbanken stammte. Im Zeitalter von Big Data jedoch ist die Kontrolle der Datenherkunft unverzichtbar, weil Kunden verstärkt Unternehmensdaten mit Datensätzen von Drittanbietern vermischen. Einige dieser neuen Kombinationen werden hochwertige und anbieterverifizierte Daten enthalten. Andere hingegen werden Daten verwenden, die offiziell nicht perfekt, aber für Testreihen ausreichend sind. Entspringen daraus zufällig wertvolle Erkenntnisse, können Manager anhand der Datenherkunft beurteilen, wie aufwändig eine hochwertigere Datenerhebung ist.
8. Klassifizierungslösungen 

Verbraucher sorgen sich verstärkt darum, wie Daten erhoben, geteilt, gespeichert und leider auch gestohlen werden. Der Ruf nach einem besseren gesetzlichen Schutz von persönlichen Informationen wird lauter werden und Politiker sowie Experten werden immer wieder Debatten über ethische Prinzipien und Grenzen anstoßen. Als Reaktion darauf werden Unternehmen zunehmend Klassifizierungssysteme einsetzen, die Dokumente und Daten in bestimmte Kategorien einteilen, um dann vordefinierte Richtlinien für Zugang, Aufbereitung und Verschleierung anwenden zu können. Auch die Gefahr von Cyber-Attacken wird bestehen bleiben. Die Angriffe werden sogar immer ausgefeilter. Folglich kontrollieren Unternehmen intensiver den Zugang und die Verwendung von Daten und verstärken ihre Sicherheitsmaßnahmen.
9. Experimentelle Datenlabore 

Da Unternehmen mehr Hypothesen überprüfen müssen, steigt in allen Branchen der Bedarf nach professionellen Datenwissenschaftlern. So werden beispielsweise Banken, Versicherer und Bonitätsprüfer stärker auf Algorithmen zur effizienteren Risikobewertung und Betrugsbekämpfung vertrauen. Doch meistens lassen sich diese Entscheidungen nur mühsam in eindeutige Regeln fassen. Folglich werden Unternehmen sich einen harten Wettkampf um die besten Algorithmen liefern und zahlreiche Experimente hinsichtlich Ausfallrisiko, Garantien für Versicherungspolicen und Betrugsbekämpfung durchführen.

10. Datenlaien werden zunehmend wie Datenwissenschaftler arbeiten

Komplexe statistische Verfahrenwerden wohl weiterhin die Domäne von Datenwissenschaftlern bleiben – im Gegensatz zu datenbasierten Entscheidungen. Dieses Jahr werdenbenutzerfreundlichere Big Data-Suchwerkzeuge zur Verfügung stehen. Damit können Business-Analytiker den unternehmenseigenen Hadoop-
Cluster schneller nach Datensätzen durchsuchen und diese in neuen Kombinationen zusammenstellen. Anhand von selbstlernenden Untersuchungsverfahren lassen sich sogar Analysen durchführen. Sobald diese Möglichkeiten einem größeren Anwenderkreis offenstehen, wird die eigenständige Big Data-Nutzung zunehmen und die Qualität von Hypothesen und Experimenten verbessert. Die nächsten Innovationen werde zwangsläufig folgen.
Fazit

An Big Data führt kein Weg mehr vorbei. Die Werkzeuge für datenbasierte Entscheidungen stehen bereit. Jetzt liegt es an den Unternehmen, schnell Nutzen aus den neuen Möglichkeiten zu ziehen. Nur Unternehmen, die aus ihren Daten schnell die richtigen Erkenntnisse ziehen, werden sich im globalen Wettbewerb behaupten können.

Das könnte Sie auch interessieren: Aktuelles Stichwort: Big Data

Big DataBig Data TrendsCloudDatenwissenschaftlerInternet der DingeIoTIT Trends





Das könnte Sie auch interessieren

Anbieterportal


alle Anbieter
Sharer Icon: facebookSharer Icon: TwitterSharer Icon: LindekInSharer Icon: XingSharer Icon: EnvelopeSharer Icon: Print
Banner

Melden Sie sich zur Onlineveranstaltung an

16.11.2020: Finale Wettbewerb Fabriksoftware des Jahres

23.11.2020: Fachkongress Fabriksoftware

Wir verwenden Cookies, um die Nutzererfahrung stetig zu verbessern. Mehr Erfahren.

Essentielle Cookies

Cookie Settings
Speichert Einstellungen, die hier getroffen werden. (1 Jahr)

Statistik

Google Analytics | Google LLC | Datenschutz
Cookie von Google für Website-Analysen. Erzeugt statistische Daten darüber, wie der Besucher die Website nutzt. Alle Informationen werden anonymisiert gespeichert. (2 Jahre)