+ All Categories
Home > Documents > Datenwertschöpfung und Qualität von Daten - bvdw.org · „Data Economy describes the...

Datenwertschöpfung und Qualität von Daten - bvdw.org · „Data Economy describes the...

Date post: 18-Aug-2019
Category:
Upload: phamcong
View: 214 times
Download: 0 times
Share this document with a friend
27
Data Economy Datenwertschöpfung und Qualität von Daten
Transcript

Data EconomyDatenwertschöpfung und Qualität von Daten

Der besondere Dank für die Entstehung dieser Publikation gilt den beteiligten Expertinnen und Experten:

MARKUS BREUERnugg.ad GmbH

CAROLIN GREIFMedia Impact GmbH & Co.KG

JÖRG KLEKAMPADITION technologies AG

SVEN LIPPERTIP Deutschland GmbH

SWETLANA MEIERAxel Springer SE

STEFAN MIESartegic AG

DANIEL RIEBERadsquare GmbH

THOMAS SCHAUFDeutsche Telekom AG

VOLKER STÜMPFLENMediengruppe RTL Deutschland GmbH

MELANIE VOGELBACHERQ division GmbH

TOBIAS WEGMANNprexma

Data EconomyDatenwertschöpfung und Qualität von Daten

4 INHALT

INHALT

WAS IST DATA ECONOMY – BEGRIFFE, DEFINITIONEN UND MARKTUMFELD 3

Definition Data Economy 4

Data Economy 4

DATEN-WERTSCHÖPFUNG 7

Vertikale Datenverarbeitung: Vom Datum zur Information 7

Horizontale Daten-Wertschöpfungskette: Von der bloßen Information zum wertvollen Gut 8

Wertbemessung von Daten 11

Faktoren, die den Wert bestimmen 11

QUALITÄT & WERT VON DATEN: WIE DIE WERTSCHÖPFUNG FUNKTIONIERT 15

BEISPIELHAFTE BEWERTUNG EINES DATENSATZES

FÜR DIE BESTIMMUNG DER WERTSCHÖPFUNG 17

ZUSAMMENFASSUNG 21

AUTOREN 22

BUNDESVERBAND DIGITALE WIRTSCHAFT (BVDW) E.V. 36

FOKUSGRUPPE MOBILE IM BVDW 37

IMPRESSUM 38

5WAS IST DATA ECONOMY – BEGRIFFE, DEFINITIONEN UND MARKTUMFELD

WAS IST DATA ECONOMY – BEGRIFFE, DEFINITIONEN UND MARKTUMFELD

Die Verwendung von Daten hat bei einer Reihe von teils neuen Geschäftsfeldern in den letzten Jahren ra-

pide an Bedeutung zugenommen. Dieser Bedeutungsanstieg schlägt sich auch in dem zunehmend genutzten

Schlagwort von „Daten, die das neue Öl seien“ nieder. Dies ist jedoch insofern missverständlich, als es

zunächst die Eigenart von Daten als unkörperlichem Wirtschaftsgut mit allen seinen Vor- und Nachteilen

übersieht. Darüber hinaus ist das eigentliche „Gut i. S. eines Handelswertes“ der Data Economy nicht das

Datum, sondern es sind Informationen, die aus der verknüpften Auswertung von einzelnen Daten abgelei-

tet werden. Diese Unterscheidungen sind essentiell für die Betrachtung der ökonomischen Zusammenhän-

ge in der Data Economy und für die kontroverse Diskussion um den Wert von und auch ein vermeintliches

Eigentumsrecht an Daten.

Das vorliegende Papier beschreibt insbesondere den zweiten Aspekt, die Wandlung von Daten zu Infor-

mationen. Wir beginnen mit der Vorstellung der „Informationspyramide“, die aufzeigt, wie (Roh-)Daten

die Ableitung von Informationen ermöglichen und wie auf diesen wiederum Wissen und Erkenntnisse

aufbauen. Tatsächlich sind Daten an sich – so wie Rohöl – für die meisten wirtschaftlichen Verwertungs-

zwecke nahezu nutzlos. Für die entsprechenden Geschäftsmodelle sind tatsächlich Informationen oder

gar Erkenntnisse notwendig, die erst in den späteren Stufen der Wertschöpfungskette aus der rohen

Datenmasse entstehen.

Diese Wertschöpfungskette der Data Economy wird im darauffolgenden Abschnitt vorgestellt. Sie be-

steht aus fünf Stufen: (1) Datengewinnung und (2) -aufbereitung, (3) Informationsgewinnung, (4) -bereit-

stellung und schließlich die (5) Informationsnutzung. Im Zuge dieser fünf Stufen wird auch beschrieben,

wie aus Rohdaten wertvolle Informationen entstehen.

In allen Geschäftsmodellen spielt die Sicherstellung einer hohen Qualität der verwendeten Daten – und

damit der abgeleiteten Information eine große Rolle. Diese Aufgabe obliegt dem Bereich des Informa-

tionsmanagements, welches auf Grundlage von Datenbasis, Datenbanken und Datenbankmanagement-

systemen Rahmenbedingungen und Regeln für Daten bestimmt. Nachvollziehbarkeit und Einhaltung der

jeweiligen Verarbeitungsregeln einerseits sowie eine hohe Datenqualität (z.B. Aktualität und Art der

Nutzeridentifikation) andererseits sind hier unerlässliche Hygienefaktoren , die für die spätere Ermitt-

lung der Datenwerte eine entscheidende Rolle spielen.

Den Wert objektiv zu ermitteln, ist eine keinesfalls triviale Aufgabe. Mit diesem Thema beschäftigt sich

der letzte Abschnitt dieses Papiers. Hier wird unter anderem an Fallbeispielen erläutert, wie sich dem

objektiven Wert einer Information zumindest angenähert werden kann. Der inhaltlichen Auseinander-

setzung mit den oben skizzierten Parametern vorgreifend, sind die wichtigsten Erkenntnisse zur Data

Economy folgende:

1. Nicht Daten, sondern erst die entlang der wertschöpfenden Struktur abgeleiteten Informationen

haben einen messbaren Wert.

2. Algorithmen sind ein wesentlicher Bestandteil der Data Economy. Diese leiten als Analyse-Instanz

Informationen aus Daten ab und schaffen erst den Wert der Daten für eine Institution und die

Data Economy als Ganzes.

3. Der Wert der Daten lässt sich mittels einer Stufenkalkulation und den verbundenen Datenmengen

bestimmen. Auf Basis der erhaltenen Grenzkosten lassen sich Gewinn und Wertschöpfung ermitteln.

6

4. Dieser Wert einer datenbasierten Information kann aus zwei Perspektiven betrachtet werden (die zu

unterschiedlichen Ergebnissen kommen):

a. Der spezifische Wertbeitrag als maximaler Grenznutzen dieser Information im Rahmen eines

konkreten Geschäftsmodellsb.

b. Der Marktwert, der sich über die Preisfindung in einem auf Angebot und Nachfrage basierenden,

hinreichend liquiden Markt ergibt

5. In beiden Fällen und unabhängig vom spezifischen Wert im Kontext eines Geschäftsmodells bestim-

men Qualität, Liquidität und Exklusivität den Wert von Informationen.

DEFINITION DATA ECONOMY

„Data Economy describes the monetization of information created by data in an own business model.”

Im Kern beschäftigt sich die Data Economy mit der Monetarisierung von Informationen auf Basis gewon-

nener Daten, welche mit einem Algorithmus zu werthaltigen Informationen transformiert und anschlie-

ßend auf Basis der betriebswirtschaftlichen Funktionen zugänglich gemacht werden. Data Economy kann

als eigenes Business-Modell betrieben werden oder unterstützt, verändert oder ersetzt bestehende

Wertschöpfungsmodelle durch eine zunehmende Digitalisierung.

DATA ECONOMY

Mit der Zunahme der Menge erfasster Daten gewinnen Daten im Kontext unternehmerischer Entschei-

dungen eine immer größere Bedeutung. Dies schlägt sich auch in der gewachsenen Aufmerksamkeit für

Schlagwörter wie Big Data, Datenvolumen und SaaS-Plattformen nieder. Sie geben ein Beispiel dafür,

wie sich der Markt beim Thema Daten gewandelt hat und sich in Zukunft weiterentwickeln wird. Die

hier benannten Teilgebiete stehen dafür exemplarisch und können um andere Teilgebiete, in denen es

im Wesen um die Transformation von Daten zu Informationen geht, ergänzt werden. All diese Bereiche

verfolgen im Kern ein Ziel: Daten zusammenzutragen und aus diesen Wissen für das eigene Geschäfts-

modell zu entwickeln. Die Zusammenstellung, Wandlung von Daten zu Informationen und die Nutzung

der neuen Information lässt sich als ein Teil der Data Economy bezeichnen.

Die Data Economy bildet die daraus entstehende Wertschöpfungskette ab. Erst durch die Organisation

der Wertschöpfung wird es möglich, Werte von Daten und den wirklichen Wertebeitrag in einem Un-

ternehmen zu bestimmen.

Big Data

Besonders am Umsatz mit Big-Data-Lösungen lässt sich hervorragend erkennen, in welchen Dimensi-

onen sich der Markt gewandelt hat. Allein von 2011 bis 2016 ist der Umsatz weltweit von 3,4 Milliarden

Euro auf 15,7 Milliarden Euro1 gestiegen. Bis 2026 wird der Umsatz auf bis zu 92,2 Milliarden US Dollar2

anwachsen. Das belegen auch Umfragen zur Nutzung von Big Data. Lediglich 1 Prozent der Unterneh-

men in Deutschland hat sich noch nicht mit dem Thema Big Data auseinandergesetzt. Im Gegensatz

dazu haben 35 Prozent der Unternehmen Big-Data-Lösungen bereits im Einsatz und weitere 24 Prozent

planen, diese zukünftig zu nutzen.3 Für 51 Prozent der befragten Unternehmen gehörte Big Data zu den

wichtigsten IT-Trends 2016.4 In den nächsten Jahren zählt Big Data damit zu den wichtigsten technolo-

1 Exper ton, 2016, Big Data Vendor Benchmark 2 Wikibon, 2015, Big Data Vendor Revenue and Market Forecast 3 KPMG, 2016, Big Data Repor t 4 Bitkom, 2016, Branchenbarometer 1.Halbjahr

„Data Economy describes

the monetization of

information created by

data in an own business

model.”

WAS IST DATA ECONOMY – BEGRIFFE, DEFINITIONEN UND MARKTUMFELD

7

gischen Trends.5 Die Anbieter mit den weltweit größten Marktanteilen für Lösungen im Big-Data-Bereich

sind IBM, SAP und Oracle.6 Fast jedes Unternehmen analysiert Daten, jedoch nutzen nur 13 Prozent 7

eine fortgeschrittene Analyse von Daten unterschiedlicher Herkunft und Struktur. Vor allem deskrip-

tive (48 Prozent) und vorausschauende Analysen (39 Prozent) werden von Unternehmen genutzt.8 Für

Entscheidungsprozesse sammelten und analysierten Unternehmen 2016 vor allem Unternehmensdaten,

Kundendaten und systemisch erstellte Daten.9 Auch im Bereich des Internet of Things (IOT) gibt es

neues Potenzial, wenn es um Analysemöglichkeiten geht: Denn obwohl sich nur 43,5 Prozent der Un-

ternehmen aktiv mit dem Thema auseinandersetzen, wird innerhalb der ersten fünf Jahre bereits eine

Umsatzsteigerung von bis zu 20 Prozent erwartet.10

Datenvolumen

Zu 56 Prozent sind Videos und zu 27 Prozent sind Tauschbörsen für das Datenvolumen verantwortlich,

Websites und Daten machen lediglich 15 Prozent aus.11 2005 betrug das Volumen der jährlich gene-

rierten Datenmenge weltweit 130 Exabyte und bis 2020 liegt die Prognose bei 40.026 Exabyte.12 Zurzeit

liegt der Wert noch bei ca. 9.000 Exabyte13, was laut den Prognosen eine Vervierfachung der Datenmen-

ge innerhalb von 4 Jahren bedeutet. Auch in der durchschnittlichen Betrachtung der genutzten monat-

lichen Datenmengen eines Mobilfunkanschlusses in Deutschland ist die Zunahme deutlich zu erkennen:

Betrug das Datenvolumen 2012 noch 114 Megabyte pro Smartphone und Monat, liegt es 2016 schon bei

durchschnittlich 510 Megabyte.14

Datenverarbeitungsgeschwindigkeit

Datenverarbeitung umfasst das Erfassen, Übermitteln, Ordnen und Umformen von Daten.15 Dies ge-

schieht zur Informationsgewinnung und meist durch Unterstützung von Technik, z. B. mithilfe von

Computern. Die Geschwindigkeit wird dabei immer wichtiger und stellt einen entscheidenden Wett-

bewerbsvorteil dar. Außerdem bildet die Datenverarbeitungsgeschwindigkeit die Grundlage für Real-Ti-

me-Optionen und KI-Systeme. Nicht nur die Verarbeitung wird immer schneller, sondern auch der Um-

satz der Branche schießt immer weiter in die Höhe. Lag er 2009 noch bei 887 Mio. Euro16 , so wird er

bis 2020 auf 2565 Mio. Euro17 prognostiziert. Die Rechenleistung des leistungsstärksten Supercomputers

liegt 2017 bei 93014,6 TeraFLOPS, FLOPS18 steht dabei für Floating Point Operations Per Second und

bezeichnen die Anzahl der ausführbaren Rechenoperationen pro Sekunde.

Entwicklung SaaS-Plattformen

Auch an Software-as-a-Service-Plattformen lässt sich die Entwicklung im Markt nachvollziehen. Die

Dienstleitungsbranche hat in den letzten Jahren eine der stärksten Entwicklungen durchlebt – so auch

im Software-Bereich. Von Collaboration, Back-up und Archivierung über CRM- und ERP-Systeme bis hin

zu Human Resources und Supply-Chain-Management19 bieten die Dienstleister sämtliche Optionen an.

Dieser Vielfalt entspricht auch der Umsatz. Weltweit wurden 2010 10,75 Milliarden US Dollar generiert,

5 EHI Retail Institute, 2015, Technologische Trends im Handel6 Wikibon, 2015, Big Data Vendor Revenue and Market Forecast 7 KPMG, 2016, Big Data Repor t8 KPMG, 2016, Big Data Repor t 9 KPMG, 2016, Big Data Repor t 10 SAS, 2016, Wettbewerbsfaktor Analytics im Internet der Dinge 11 Cisco Systems, 2016, Cisco Visual Networking Index: Global Mobile Data Traffic Forecast Update 12 IDC, 2012, The Digital Universe in 2020: Big Data, Bigger Digital Shadows, and Biggest Growth in the Far East13 Sopra Steria Consulting, 2016, Potenzialanalyse Data Science14 VATM und Dialog Consult, 2015, 17. TK-Marktanalyse Deutschland15 Gabler Wir tschaftslexikon, 2017 16 Statista, Eurostat, 201717 Statista, Eurostat, 20118 Top500.org, 2017 19 PWC, 2010, Cloud Computing. Navigation in der Wolke

WAS IST DATA ECONOMY – BEGRIFFE, DEFINITIONEN UND MARKTUMFELD

Von Zeichen zu Wissen

Quelle: 2012 Raffael Herrmann; www.derwir tschaftsinformatiker.de

SYNTAX

einzelne Zeichen werden mittelsSyntax zu einer Aussage angeordnet.

Zeichen

Wissen

Informationen

Daten

PRAGMATIK / VERNETZUNG

Informationen werden mit Erfahrungen verknüpft und ergeben somit Wissen.

SEMANTIK

Aussagen / Daten wird eine Bedeutung zugewiesen.

8

2016 waren es schon 37,7 Milliarden US Dollar.20 Als größte zukünftige Herausforderung wird von 72

Prozent der befragten Unternehmen vor allem gesehen, Kunden von der Datensicherheit zu überzeu-

gen. Weitere 61 Prozent messen der Herausforderung, die kritische Nutzermasse zu erreichen, eine

weitere große Bedeutung zu.21 Software-as-a-Service nimmt im Marktvolumen von Cloud Services den

größten Platz ein. Mit 4511 Millionen Euro22, die 2016 in Deutschland umgesetzt wurden, hebt sich das

Segment weit von PaaS, IaaS und Network ab. Weltweit entwickelt sich der Umsatz mit Cloud-Com-

puting-Diensten stetig weiter nach oben. 2009 lag er bei 58,6 Milliarden US-Dollar, 2016 bei 203,9

Milliarden US-Dollar23. Mit dieser Zunahme steigt auch das Bedürfnis nach Sicherheit, bis 2019 wird

der Umsatz mit Cloud Security auf 8,71 Milliarden US Dollar24 gestiegen sein. Allgemein wird Cloud

Computing von 54 Prozent25 der befragten Unternehmen in Deutschland genutzt, 44 Prozent26 stehen

dem Thema aufgeschlossen und interessiert gegenüber. Cloud-Provider sollten in Zukunft besonders auf

die Integrationsfähigkeit von Lösungen achten, denn das ist Kunden bei der Auswahl besonders wich-

tig.27 SaaS-Plattformen dienen in der Data Economy als Tools (Werkzeuge), welche zu einer besseren

Daten-Informationskapitalisierung führen oder Prozesse für die Monetarisierung der vorliegenden und

gewonnenen Informationen verbessern (z. B. zentrale Datensicht, Automatisierung von Prozessen hin-

sichtlich der Ausprägungen von Informationen etc.).

DATEN-WERTSCHÖPFUNG

VERTIKALE DATENVERARBEITUNG: VOM DATUM ZUR INFORMATION

20 Gar tner, 2016, Forecast Analysis: Public Cloud Services, Worldwide, 4Q15 Update21 Fraunhofer IAO, 2010, Geschäftsmodelle im Internet der Dienste22 Exper ton, 2016, Cloud Vendor Benchmark23 Gar tner, 2016, Forecast Analysis: Public Cloud Services, Worldwide, 4Q15 Update24 MarketsandMarkets, 2014, Cloud Security Market Repor t25 KPMG; Bitkom, 2016 Cloud Monitor 26 KPMG; Bitkom, 2016 Cloud Monitor27 KPMG; Bitkom, 2016 Cloud Monitor

DATEN-WERTSCHÖPFUNG

9

Die Data Economy beschäftigt sich mit der Organisation von Daten zu Informationen und hat wesent-

liche Schnittmengen mit dem Informationsmanagement (IM). IM steht für die Gesamtheit aller strate-

gischen Verfahren und die Abstraktion in die operativen Möglichkeiten, mit denen der Produktionsfaktor

Information betrieblich genutzt werden kann. Um zu einer Information zu gelangen, ist es notwendig,

sich mit den Begriffen Daten und Information auseinanderzusetzen. In der heutigen Diskussion werden

Daten und Information oftmals vermischt oder gar pauschal gleichgesetzt. Daten sind Grundlage der

Informationsgewinnung und der Wandlungsprozess von Daten zu Information ist ein elementarer Be-

standteil der Wertschöpfung innerhalb der Data Economy.

In der Unternehmensstrategie beschäftigt sich das IM mit der Art und Weise, wie Informationen, be-

ginnend mit den Rohdaten, erfasst, verarbeitet, gespeichert, bereitgestellt werden und als wichtige Res-

source in vorhandene und neue Anwendungen einfließen können. Das IM beschreibt im Wesentlichen,

welche Informationen in welche Arbeitsabläufe einfließen und stellt diese Informationen im Wertschöp-

fungsprozess bereit. Ebenfalls ist das Informationsmanagement für die im Kontext bezogene Vollständig-

keit und die Qualität der Daten und Informationen verantwortlich. Um zu verdeutlichen, woraus eine

Information besteht, soll die Wissenspyramide (s. Abbildung) zur Darstellung dienen.

Im Kern bestehen Daten aus Zeichen, welche binär oder alphanumerisch vorliegen können. Daten lie-

fern ohne einen Kontext noch keine Information. Es ist möglich, Daten zu sammeln und diese zu ar-

chivieren, doch ohne einen konkreten Kontext liefern Daten zunächst kein neues Wissen i. S. einer

Information. 28Wurde ein Kontext definiert, können Daten zu Informationen transformiert werden und

erlauben dem Menschen oder der Maschine Wissen zu generieren. Dieser Prozess wird meist mithilfe

eines Algorithmus getätigt. Dieses Wissen fließt dann im Informationsmanagementprozess in die kon-

textbezogene Wertschöpfung ein.

Um aus Daten eine Information abzubilden, ist es notwendig, sich analytisch, logisch und systematisch

mit Daten zu beschäftigen. Die erste Beschäftigung mit Daten auf dem Weg zu einer Information nennt

sich Modeling, es handelt sich dabei um die Erstellung eines Modells. In dieser Phase setzt sich ein Da-

tenbankexperte, ein Programmierer oder ein Analyst mit den vorliegenden Daten auseinander, um einen

Weg zu finden, die gewünschten Informationen für eine verbesserte Ausgangslage zu erhalten. Bei einer

dauerhaft geplanten Nutzung liegt es nahe, dass dieser Prozess automatisiert wird. Ab diesem Zeitpunkt

spricht man gegenwärtig vom Erstellen eines Algorithmus, welcher voll automatisiert auf Basis eines

in der Struktur gleichbleibenden Datenmodells aus sich ständig verändernden Daten Informationen

hervorbringt.

HORIZONTALE DATEN-WERTSCHÖPFUNGSKETTE: VON DER BLOSSEN INFORMATION ZUM WERTVOLLEN GUT

Beschäftigte sich das vorherige Kapitel mit dem vertikalen Transformationsprozess eines Datums zu

einer Information, umfasst dieses Kapitel die horizontale Transformation. Hier wird dargestellt, wie man

von einem Datum zu einem messbaren Wert gelangt.

28 Information: Derjenige Anteil einer Nachricht, der für den Empfänger einen Wert besitzt. Durch Informationen werden beim Wir tschaftssubjekt bestehende Wahrscheinlichkeitsur teile bez. entscheidungsrelevanter Daten oder Ereignisse veränder t.

DATEN-WERTSCHÖPFUNG

Vereinfachte Darstellung des Wertschöpfungsprozesses der Data Economy

Informationsnutzung

Informationsbereitstellung

Informationsgewinnung

Datenaufbereitung

Datengewinnung

10

Die Wertschöpfungskette der Data Economy

Vereinfacht lässt sich der Wertschöpfungsprozess in fünf Teile untergliedern: Datengewinnung, Datenauf-

bereitung, Informationsgewinnung, Informationsbereitstellung und Informationsnutzung.

1. Datengewinnung

Hier werden die Rohdaten gemessen oder anderweitig erhoben und an ein üblicherweise server-ba-

siertes System geschickt.

2. Datenaufbereitung

In dieser Stufe werden die Rohdaten für die weitere Verarbeitung aufbereitet. Sie werden zum Beispiel

bereinigt und um Metadaten (zum Beispiel Quelle, Klasse/Typ, Zeitpunkt der Erfassung etc.) angereichert.

3. Informationsgewinnung

Nach der ersten Aufbereitung findet die Informationsgewinnung, quasi die „Raffinierung“ oder „Ver-

edelung“ der Daten statt. Durch Analyse, intelligente Zusammenführung von Einzeldaten, Bildung und

Anwendung von statistischen Modellen, Extrapolation etc. werden aus losen Daten wertvolle Informa-

tionen generiert. Eine weitere und etwas ausgeprägtere Form der Information kann dann zu Wissen

oder Erkenntnissen führen. Da dies nur eine weitere Anwendung von Raffinierungsschritten beschreibt,

werden diese Prozesse insgesamt in einer Stufe zusammengefasst.

4. Informationsbereitstellung

Um Nutzen aus den gewonnenen Informationen ziehen zu können, müssen diese technisch in einem

System bereitgestellt werden. Dies geschieht, indem die neue Information mit allen notwendigen Attri-

buten als ein Datensatz gespeichert wird.

5. Informationsnutzung

Am Ende der Wertschöpfung werden die Informationen genutzt; u. a. für das eigentliche Produkt, welches

in der industriellen Herstellung, dem Handel oder Service bestehen kann, wie auch für Inhalte oder deren

Bewertung durch Empfehlungen, Marktforschung und andere Analysen. Das gewünschte Endergebnis der

Nutzung hängt vom Geschäftsmodell ab. In dieser Stufe fallen die von außerhalb kommenden Erlöse an.

Zugleich entstehen durch die Informationen neue Daten, die ggfs. wieder in Stufe 1 bzw. 2 zurückfließen.

DATEN-WERTSCHÖPFUNG

11

Erlöse können intern und extern erwirtschaftet werden. Interne Erlöse auf Basis der Data Economy ent-

stehen, indem die gewonnene Information einen strategischen oder taktischen Informationsvorsprung

oder -vorteil gegenüber den Wettbewerbern bietet. Externe Erlösmodelle sehen vor, die neu gewon-

nene Information entweder gegen eine Gebühr zu veräußern oder sie auf Basis eines Dienstes kosten-

pflichtig bereitzustellen. Eine Sonderform der Kapitalisierung ist bei der externen Monetarisierung die

werbefinanzierte Vermarktung.

DIE WERTSCHÖPFUNGSSTUFEN IM DETAIL

Im Folgenden wollen wir die einzelnen Wertschöpfungsstufen etwas detaillierter vorstel-

len. Da die digitale Welt vielfältig und einer ständigen Entwicklung unterworfen ist, kann keine,

die tatsächlichen Gegebenheiten beschreibende, vollumfängliche Prozessbeschreibung erfolgen.

Datengewinnung

Als „Datengewinnung“ bezeichnen wir alle Prozesse, über die Daten innerhalb eines Unternehmens in

den Wertschöpfungsprozesse eingehen. Diese Daten kommen aus den unterschiedlichsten Quellen und

gelangen auf unterschiedlichen Wegen in die Wertschöpfungskette der Data Economy.

Exkurs: Datenquellen

Es gibt eine Vielzahl von Datenquellen. Datenquellen können Webseiten, Kassensysteme, Sensoren oder

andere Gateways zur Wandlung einer Aktion in ein digitales Datum sein. Die Anzahl von Sensoren im

öffentlichen wie auch im privaten Raum (z. B. Smart TV), ist in den letzten Jahren erheblich gestiegen.

Weiterhin steigt die Anzahl von digitalen Plattformen und Angeboten, welche nicht nur das Ergebnis

von Datenverarbeitungsprozessen darstellen, sondern selbst wieder Datenquellen für andere Prozesse

darstellen.

Datenaufbereitung

Nach der Datengewinnung ist es empfehlenswert, die Daten aufzubereiten. Dieser Arbeitsschritt kann

unterschiedliche Facetten haben. Es kann bspw. sein, dass Daten in dem angelieferten Dateiformat nicht

maschinell bearbeitbar sind. Es muss dann zunächst eine Lösung gefunden werden, wie Daten systema-

tisch, automatisiert und logisch erfasst sowie verarbeitet werden können. Liegen die Daten bearbeitbar

vor, können mehrere nächste Arbeitsschritte folgen, welche auf die Qualität und schließlich den Wert

der vorliegenden Daten einzahlen. Die Verarbeitungsprozesse zur Vorbereitung der Datenbearbeitung

lassen sich in Bereinigung, Anreicherung und Standardisierung (Taxonomie) untergliedern.

Informationsgewinnung

Der Informationsgewinnung wird die größte Aufmerksamkeit gewidmet. In dieser Phase beschäftigt sich

ein Entwickler, Datenbankexperte oder Analyst mit der Bildung eines mathematischen Modells oder der

Bildung eines logischen Ablaufprozesses. Dies ist der Kern der Data Economy, da an dieser Stelle Daten

auf Basis des eigenen Geschäftsmodells zu denjenigen Informationen gewandelt werden die für die

individuelle Wertschöpfung und damit eingehende Monetarisierung notwendig sind. Wurde ein Modell

oder Prozess gefunden, beginnt die Modellierung des Modells in einen Algorithmus oder das Erstellen

eines logischen Prozessablaufs. Der Algorithmus oder Prozess dient dazu, den gewünschten Output

an Informationen dauerhaft und ohne weitere manuelle Einzelschritte zu erhalten. Ist die Information

generiert, ist es für eine weitere wertschöpfende Verarbeitung notwendig, diese bereitzustellen (siehe

Informationsbereitstellung).

DATEN-WERTSCHÖPFUNG

12

Dieser Prozessschritt der Informationsgewinnung stellt den Kern der datenbasierten unternehmerischen

Wertschöpfung dar. Nur wer eigenes Know-how in der eigenen Daten- und Informationsinfrastruktur

generiert, behält die Kontrolle über die Wertschöpfung. Trifft man bei der Wahl des Datenbankmodells

eine falsche Entscheidung oder begrenzt sich von Beginn an auf ein zugehöriges Leistungsangebot, bei-

spielsweise eine Datenbank mit einem geschlossenen Ökosystem, erhält das Unternehmen nie die Mög-

lichkeit, besser als der Marktführer zu werden, der ggf. eigene Lösungen entwickelt. Diese Entscheidung

zu treffen, hängt eng mit der Unternehmensstrategie zusammen, d. h. ob sie auf Marktführerschaft oder

reine Marktteilnahme ausgerichtet ist und wie weit das Bewusstsein für die Entwicklung der eigenen

Data Economy ausgeprägt ist.

Informationsbereitstellung

Bei der Informationsbereitstellung werden die neu gewonnenen Informationen gespeichert. Ab dem

Punkt der Speicherung kann die Nutzung dieser Information angegangen werden.

Informationsnutzung

Eine Informationsnutzung erfolgt, indem die neue Information abgerufen wird. Der Abruf kann in

mehrfacher Hinsicht erfolgen, entweder in der Verarbeitung in einem Produktionssystem, der Darstel-

lung auf einer Webseite, innerhalb einer App, auf dem Bildschirm oder als Druck. Ebenfalls kann die

Information auch als neuer Datensatz bereitgestellt werden und dient dann als Auslöser für weitere

Prozesse. Zum Beispiel lässt sich ab dieser Stelle der Wertschöpfungsprozess auf Basis eines ande-

ren oder erweiterten Wertschöpfungsansatzes von vorn beginnen. Die Informationsnutzung findet

entweder zwischen Maschine zu Maschine, Maschine zu Mensch, Mensch zu Maschine oder Mensch zu

Mensch statt.

WERTBEMESSUNG VON DATEN

Grundsätzlich kann der Begriff „Wert“ (im kaufmännischen Sinne) bei einer Information zwei Bedeu-

tungen haben:

1.Der unternehmensspezifische Wert

im Kontext eines konkreten Geschäftsmodells und einer Datenstrategie, je nach verfolgtem Ge-

schäftsziel und der jeweiligen Rolle der Daten und der Informationsgewinnung. Relevante Fragestel-

lungen dabei sind:

Welche zusätzlichen Erlöse können erzielt werden?

Welche Kosten können vermieden/reduziert werden?

2. Der Marktwert

als der „Preis“, der sich in einem System von Angebot und Nachfrage – einem Markt – für eine be-

stimmte Information herausbildet.

Zu beachten ist, dass beide Werte weit auseinanderklaffen können. Der unternehmensspezifische Wert

einer Information kann deutlich über oder unter dem Marktwert liegen.

Diese Betrachtung macht deutlich, dass ein isolierter „objektiver Wert“ von Daten so gut wie nicht

ermittelt werden kann. Wert erhalten erst die aus den Daten gewonnenen Informationen – und das nur

im Kontext eines spezifischen Wertschöpfungsprozesses. Im folgenden Kapitel werden marktgängige

Methoden zur Wertbestimmung von Daten aufgezeigt.

DATEN-WERTSCHÖPFUNG

Reifemodell Data Economy

Unternehmensspezifischer Wert

Monitoring

Optimierung und

Marktdifferenzierung

User Value

Business Value

Marktwert

Wachstum und Disruption

durch neue Erlösquellen

Monetarisierung

Market Value

1 3

24

13

FAKTOREN, DIE DEN WERT BESTIMMEN

Die Wertbemessung von Daten wird maßgeblich von zwei Faktoren beeinflusst, der Datenstrategie

eines Unternehmens und dem Grad der Nutzeridentifikation. Zunächst folgt eine Betrachtung der „Da-

tenstrategie eines Unternehmens“, bevor der Faktor „Profilidentifikation“ beschrieben wird.

Datenstrategie eines Unternehmens

Ein Unternehmen kann als primäres Geschäftsziel die Sammlung, Verarbeitung und Bereitstellung verar-

beiteter Informationen am Markt verfolgen. Diese Unternehmen bieten zum Beispiel auf Informations-

marktplätzen Informationspakete anderen Unternehmen an. Dabei kann die Bereitstellung als Verkauf,

Lizenz oder Beratergeschäft abgewickelt werden.

Andere Unternehmen, wie in der klassischen Industrie üblich, nutzen gesammelte Informationen und

die daraus gewonnenen Erkenntnisse als Instrument für die Optimierung der bestehenden Wertschöp-

fungskette, zur Effizienzsteigerung oder Kostenoptimierung. Eine scharfe Trennung nach diesen beiden

Formen ist allerdings nicht möglich. Grund dafür ist, dass durch die Digitalisierung immer mehr Un-

ternehmen aus der klassischen Industrie die Chancen der Data Economy nutzen und vorliegende Da-

ten selbst verarbeiten und am Markt anbieten oder selbst Informationsmarktplätze aufbauen und der

Verwendung von Informationen auch innerhalb der eigenen Produktionsketten, z. B. zur Optimierung,

gewachsene Bedeutung zukommt. Ebenfalls zu beachten ist, dass eine Information nur bedingt ein Ver-

brauchsgut ist und mehrmals verwendet werden kann, um daraus Absatz zu generieren.

Die Datenstrategie eines Unternehmens muss daher als Reifemodell gesehen werden, welches nach den

folgenden vier Entwicklungsstufen differenziert wird:

1. Monitoring

2. Optimierung und Marktdifferenzierung

3. Wachstum und Disruption durch neue Erlösquellen

4. Monetarisierung

DATEN-WERTSCHÖPFUNG

14

Die Einordnung des eigenen Unternehmens in die Datenstrategie liefert die nötige Grundlage dafür um

festzustellen, ob ein unternehmensspezifischer Wert oder der Marktwert bestimmt wird.

Monitoring

Primäres Ziel ist die Nutzung von Daten zur Identifizierung von Potenzialen zur Effizienzsteigerung

sowie zur Kosten- und Risikoreduzierung operativer Geschäftsprozesse.

Damit geht zunächst die Modernisierung der IT-Infrastruktur und Aufrüstung mit Technologie einher,

welche es gestattet, sowohl eine hohe Anzahl von Datensätzen und Rechenoperationen zu erbringen

leisten als auch die Bereitstellung der Daten oder neuen Informationen in einem eigens definierten

Zeithorizont zu ermöglichen.

Eine standardisierte Unterteilung eines Zeithorizonts für die Verwertung von Informationen gibt es

nicht, vielmehr lässt sich diese nur in Longtime, Neartime und Realtime unterteilen, wobei jedes Un-

ternehmen seine eigene zeitliche Definition vornimmt. Zum Beispiel: CRM-Daten (Stunden-Minuten),

Campaign-Data (Minuten), Live-Data (60–15 Sekunden), Behavioral Data (15–1 Sekunde) und Contextu-

al Data (Millisekunden). Nur die Klassen Behavioral und Contextual Data entsprechen im engeren Sinne

der Realtime-Verarbeitung, alles andere wird als Neartime bzw. Longtime bezeichnet.

Aus der Konsolidierung und Aufarbeitung von Daten innerhalb der eigenen IT-Infrastruktur zur Überwa-

chung der Geschäftsprozesse lassen sich drei wesentliche Kernfunktionen für die eigene Data Economy

herauslesen:

• Aufdecken möglicher Prozessschwächen und Service-Probleme

• Vergleichbarkeit von Performance-Daten zwischen Perioden, Kampagnen, Industrien

• Hinweise für Brand-Entwicklung, Kundenzufriedenheit, Produkt-Performance, Finanzdaten

Optimierung und Marktdifferenzierung

Ziel ist es, durch besseres Verständnis von Nutzern und deren Konsumverhalten das bestehende Markt-

angebot zu optimieren und zu erweitern bzw. auf Basis gewonnener Informationen einen Marktvorteil

gegenüber Mitbewerbern zu schaffen. Gegenwärtig steht vor allem die Optimierung bestehender oder

die Bildung neuer Erlösquellen im Vordergrund.

Für viele Industrien heißt es, zunächst das bessere Verständnis über den Nutzer zu erlangen. Dies be-

dingt die Aggregation und Analyse aller relevanten Daten rund um den Nutzer, sowohl innerhalb als

auch außerhalb des eigenen Unternehmens. Durch eine tiefgreifende Nutzeranalyse und Verhaltens-

modellierung können Unternehmen innovative und relevante Service-Angebote sowie personalisierte

Empfehlungen anbieten, die Nutzer wirklich interessieren.

Darüber kann die automatische Verarbeitung von Daten (Analytics-Integration) zur Optimierung des

Tagesgeschäfts in folgenden Bereichen führen:

• Allokation von Marketingausgaben

• Ressourcenplanung basierend auf generierten Informationen aus dem Tagesgeschäft

• Vertrieb und Inventaroptimierung gekoppelt mit lokalen demografischen

Wetter- und Event-Informationen

• Preisbestimmung basierend auf Kaufmustern, Inventarniveau und Produktinteresse,

ermittelt aus sozialen Netzwerken

• Algorithmisches Trading im Finanzsektor

DATEN-WERTSCHÖPFUNG

Wachstum und Erlösquellen

Durch die wachsende Anzahl an neuen Informationsquellen sind bestehende Erlösmodelle gefährdet.

Diese Bedrohung wird zum Anlass genommen, neue Erlösquellen zu suchen und mittels datengetrie-

bener Systeme, die als Informationslieferant (Treiber) dienen, neuen Absatz zu schaffen.

Durch die Sammlung und Verarbeitung von Daten können neue Produkte und Erlösquellen entstehen,

zum Beispiel durch

• die Schaffung von neuen Produkten durch Integration von Informationen (Analytics),

• die Entwicklung von Plattformen und Eco-Systemen,

• die Entwicklung von Services.

Monetarisierung (Datenmarktplatz)

Ziel ist es, die vorhandenen Daten durch Verarbeitung zu Informationen als primäres Produkt des Un-

ternehmens zu wandeln und am Markt zu monetarisieren.

GRAD DER NUTZERIDENTIFIKATION

Am Beispiel eines marketinggetriebenen Data-Economy-Geschäftsmodells ist der Faktor „Grad der

Nutzeridentifikation“ ein maßgeblicher Faktor für die Bestimmung des Wertes. Gerade im Online-Mar-

keting entscheidet die Trefferquote einer bestimmten Zielgruppe über den Erfolg der Kampagne. Diese

Tatsache bestimmt den Trend, „registrierungsbasierten Daten“ einen höheren Wert zuzusprechen als

„anonymen Daten“. Mit dem Grad der Nutzeridentifikation wachsen die Spielräume für mögliche Ein-

satzszenarien und damit der Wert der Daten. Gleichzeitig steigen jedoch die gesetzlichen Bestimmungen

und damit die Einschränkung des Handlungsraums.

Handlungsraum Daten und Einwilligung

AnonymeDaten

Pseudonyme Daten„Inferred“

Pseudonyme Daten„Declared“

Registrierungs- basierte Daten

1

2

3

4

Mögliche Einsatzszenarien

Gesetzlicher Spielraum

Wer

t vo

n D

aten

15DATEN-WERTSCHÖPFUNG

Werthaltigkeit von Informationen

Marktwert

Wachstum und Disruptiondurch neue Erlösquellen

Monetarisierung

• Anonym: Diverse Quellen

• Pseudonym: First-Party Daten 1,

Second-Party Daten1

• Registrierungsdaten: CRM 2

Business Value

3

4

1

2

Unternehmensspezifischer Wert

Monitoring

Optimierung undMarktdifferenzierung

• Anonym: Data Warehouse

• Pseudonym: First-Party Daten

• Registrierungsbasierte Daten: CRM, Auftragsmgm. System

User Value

Business Value

Daten- strategie

Quelle

Formel zur

Wertbe-messung

1) Online Nutzerdaten ohne Opt-Out 2) Online Nutzerdaten mit Werbe-Opt-in

16

Der Grad der Nutzeridentifikation kann wie folgt differenziert werden:

1 Anonyme Daten

Anonyme Daten können nicht mehr einer Person zugeordnet werden und sind damit für gewisse Arten von

Analysen und Erkenntnissen ungeeignet. Als Beispiel lassen sich Verkehrsdatenmessungen vornehmen, um

über Bewegungsströme eine valide Aussage zu treffen, doch wer sich dort wann und wie bewegt hat, lässt

sich auf der Basis nicht bestimmen. Der Personenbezug geht durch den Verarbeitungsprozess verschiedener

Datensätze und Aggregation verloren. Typischerweise können aus anonymen Daten Tendenzen abgeleitet

werden oder Grundregeln, z. B. Warenabverkauf an Wochentagen etc., Produktbeliebtheit etc.

2 & 3 Pseudonyme Daten

Bei einer Pseudonymisierung wird ein eindeutiges Identifikationsmerkmal durch einen Hash (zufällige und

für das vorliegende Identifikationsmerkmal immer identische Zeichenfolge) ersetzt, um die Identifizierung ei-

ner Person zu erschweren. Als Beispiel können Unternehmen benannt werden, welche „Registrierungsdaten

erheben“, den eindeutigen Identifier (z. B.: E-Mail-Adresse) pseudonymisieren und diese Daten zu Marktfor-

schungszwecken an Dritte vermarkten. Pseudonyme Daten im Marketingkontext umfassen Informationen

wie Interessen, Kaufabsichten, „Intent“ sowie allgemeines Surfverhalten. Im Kontext von eHealth lassen sich

pseudonyme Daten beispielsweise nutzen, um verbesserte Behandlungsmethoden in der Krebsforschung auf

Basis von Daten zu finden.

4 Registrierungsbasierte Daten

In einem Marketingkontext sind unter personenbezogenen Registrierungsdaten Nutzerinformationen wie

Alter, Geschlecht oder E-Mail-Adresse gemeint. Diese Daten umfassen soziodemografische Informationen

eines Nutzers und werden in den meisten Fällen im Rahmen einer Registrierung erfasst. Ob und für welche

Maßnahmen diese Daten verwendet werden können, hängt von dem erfassten Opt-in (Einwilligung) des

Nutzers ab.

In diesem Fall ist insbesondere die Verknüpfung zum gesamten Online-Verhalten des Nutzers, Offline-In-

formationen aus dem CRM sowie die Cross-Device-Verknüpfung ausschlaggebend für die hohe Bewertung.

DATEN-WERTSCHÖPFUNG

15 Dimensionen Informationsqualität; Quelle DGIQ, 2007.

Quelle: DGIQ IQ-Definition – 2007

17

QUALITÄT & WERT VON DATEN: WIE DIE WERTSCHÖPFUNG FUNKTIONIERT

Jeder Mensch will die richtige Entscheidung treffen. Das kann er nur, wenn er die richtigen Informationen

in der richtigen Qualität hat. Eine hohe Datenqualität ist Grundvoraussetzung für funktionierende be-

triebliche Abläufe. Deshalb gibt es das Informationsqualitätsmanagement (IQ-Management), welches als

elementarer Baustein in Systemintegrationsprozessen fungiert. Die Bewertung von Informationsqualität

ist die Voraussetzung für Ressourcenentscheidungen und Zielfestlegungen.

Aufgabe des Informationsmanagements ist es, die Hygienefaktoren zu definieren und sicherzustellen. Als

Hygienefaktoren lassen sich bei einer Wertbestimmung die Faktoren der Datenqualität, der Aktualität

und auch der Nutzeridentifikation bestimmen. Datenqualität beschreibt die Korrektheit, die Relevanz

und die Verlässlichkeit von Daten, abhängig vom Zweck, die die Daten in einem bestimmten Zusammen-

hang erfüllen sollen.

Informationsqualität ist der Grad, in dem Merkmale eines Datenproduktes Anforderungen genügen.

Anforderungen basieren dabei auf der jeweiligen Entscheidungssituation und den Zielen.

Basierend auf einem Konzept aus dem Jahre 1996 von Wang und Strong29, lassen sich Merkmale zur Da-

tenqualität in 15 Dimensionen und vier Kategorien unterteilen: System, Inhalt, Darstellung und Nutzung.

Diese lassen sich weiter untergliedern in:

1. Zugänglichkeit (accessibility): Daten sind zugänglich, wenn sie anhand einfacher Verfahren und auf

direktem Weg für den Anwender abrufbar sind.

2. Angemessener Umfang (appropriate amount of data): Daten haben einen angemessenen Umfang, wenn

die Menge der verfügbaren Daten den gestellten Anforderungen genügt.

29 Richard Y. Wang und Diane M. Strong, Beyond Accuracy: What Data Quality Means to Data Consumers, Journal of Manage-ment Information Systems, Vol. 12, No. 4 (Frühjahr, 1996), S. 5-33.

QUALITÄT & WERT VON DATEN

18

3. Hohes Ansehen (reputation): Daten sind hoch angesehen, wenn die Datenquelle, das Transportmedi-

um und das verarbeitende System im Ruf einer hohen Vertrauenswürdigkeit und Kompetenz stehen.

4. Glaubwürdigkeit (believability): Daten sind glaubwürdig, wenn Zertifikate einen hohen Qualitätsstandard

aufweisen oder die Informationsgewinnung und Verbreitung mit hohem Aufwand betrieben werden.

5. Vollständigkeit (completeness): Daten sind vollständig, wenn sie nicht fehlen und zu den festgelegten

Zeitpunkten in den jeweiligen Prozessschritten zur Verfügung stehen.

6. Übersichtlichkeit (concise representation): Daten sind übersichtlich, wenn genau die benötigten Infor-

mationen in einem passenden und leicht fassbaren Format dargestellt sind.

7. Einheitliche Darstellung (consistent representation): Daten sind einheitlich dargestellt, wenn sie fort-

laufend auf dieselbe Art und Weise abgebildet werden.

8. Bearbeitbarkeit (ease of manipulation): Daten sind leicht bearbeitbar, wenn sie leicht zu ändern und

für unterschiedliche Zwecke zu verwenden sind.

9. Fehlerfreiheit (free of error): Daten sind fehlerfrei, wenn sie mit der Realität übereinstimmen.

10. Eindeutige Auslegbarkeit (interpretability): Daten sind eindeutig auslegbar, wenn sie in gleicher, fach-

lich korrekter Art und Weise begriffen werden.

11. Objektivität (objectivity): Daten sind objektiv, wenn sie streng sachlich und wertfrei sind.

12. Relevanz (relevancy): Daten sind relevant, wenn sie für den Anwender notwendige Informationen

liefern

13. Aktualität (timeliness): Daten sind aktuell, wenn sie die tatsächliche Eigenschaft des beschriebenen

Objektes zeitnah abbilden.

14. Verständlichkeit (understandability): Daten sind verständlich, wenn sie unmittelbar von den Anwen-

dern verstanden und für deren Zwecke eingesetzt werden können.

15. Wertschöpfung (value-added): Daten sind wertschöpfend, wenn ihre Nutzung zu einer quantifizier-

baren Steigerung einer monetären Zielfunktion führen kann.

„Eine prozessübergreifende Sicherstellung einer guten Informationsqualität kann nur erreicht werden,

wenn die jeweiligen Datennutzer an den Schnittstellen ihre relevanten —für die Informationsqualität

wichtigen - Informationen genau mit ihren Anforderungen unterlegen und diese auch aktuell halten.“-30Dadurch können Messgegenstände zur Bewertung der IQ klar strukturiert werden. Weil das Konzept

von Wang und Strong aber bereits 20 Jahre alt ist und sich gerade in diesen letzten Jahren das technische

Umfeld und die Anwendungsmöglichkeiten stark verändert haben, müsste eine Aktualisierung durch-

geführt werden. Dies geschieht am besten in Form einer Umfrage unter deutschen IT-Nutzern, um zu

prüfen, ob alle relevanten Aspekte der Informationsqualität aus Anwendersicht enthalten sind.

30 Rohweder J.P., Kasten G., Malzahn D., Piro A., Schmid J. (2008) Informationsqualität — Definitionen, Dimensionen und Begriffe. In: Hildebrand K., Gebauer M., Hinrichs H., Mielke M. (eds) Daten- und Informationsqualität. Vieweg+Teubner

QUALITÄT & WERT VON DATEN

Data Value Costtn =

Kosten

(Aktuallität * Fehlerqute * Identifiktion)

Single Data Value Costtn =

Kosten für Informationsaufbereitung

Anzahl der Datensätze

Gewinn pro Datensatz=Umsatz pro Datensatz- Single Data Value Cost

19BEISPIELHAFTE BEWERTUNG FÜR DIE BESTIMMUNG DER WERTSCHÖPFUNG

BEISPIELHAFTE BEWERTUNG EINES DATENSATZES FÜR DIE BESTIMMUNG DER WERTSCHÖPFUNG

Um eine Bewertung der Daten vorzunehmen und die Hygienefaktoren zu bestimmen, ist es zunächst

notwendig, einige Berechnungsmodelle zu erklären. Im Wesentlichen lassen sich drei Hygienefaktoren

nennen: Fehlerquote auf Basis definierter Regeln, Aktualität und der Grad der Identifikation. Diesen drei

Hygienefaktoren stehen die prozessabhängigen Kosten gegenüber, welche auf Basis der Stufenkalkulati-

on, gleichbedeutend mit mehrstufiger Divisionskalkulation, ermittelt werden können. In dem Verfahren

der Kostenermittlung werden die entstehenden Kosten jeder Wertschöpfungsphase (Datengewinnung,

Datenaufbereitung, Informationsgewinnung, Informationsbereitstellung und Informationsnutzung) zuge-

ordnet. Die Wertschöpfungskette der Data Economy lässt sich damit als Produktionsprozess verstehen.

Ziel dieses Modells ist es, die entstandenen Kosten samt Hygienefaktoren später dem einzelnen Daten-

satz zuzuordnen und auf Basis der Hygienefaktoren Hebeleffekte zur Kostensenkung und Absatzopti-

mierung zu generieren. Die Basisformel berechnet sich wie folgt:

Die Datenwertkosten (Data Value Cost) berechnen sich je Periode auf den gesamten Datenbestand und

lassen sich mittels Division auf die die einzeln Datenwertkosten (Single Data Value Cost) bestimmen:

Auf dieser Basis lassen sich die Grenzkosten für den einzelnen Datensatz ableiten. Auf Basis der ge-

planten durchschnittlichen Umsätze pro Datensatz wird es möglich, den Plan-Gewinn zu bestimmen:

Auf Basis dieser Grundlage lässt sich die Wertschöpfung des Wandlungsprozesses von eingehenden

Daten hin zur Information bestimmen.

Alle Daten werden für die Wertschöpfung einzeln betrachtet und es erfolgt eine Definition von not-

wendigen Ausprägungen für jeden einzelnen Datensatz. Am Ende der Bewertung steht eine quantitative

Information zum Datensatz.

Daten-

Gewinnung

Daten-

Aufbereitung

Informations-

Gewinnung

Informations-

Bereitstellung

Informations-

Nutzung

Betriebskosten

Kostenarten Erlösarten Kostentreiber (Beispiele)

Fixkosten Bezug der Daten über einen Service (API, FTP,…)

Variable Kosten Frequentierung der Abrufe (100.000 abrufe / h = 500 €)

Einmalkosten Kauf einer Datenbank oder eines Datensatzes

Fixkosten Betrieb der automatisierten Aufbereitung von Daten

Variable Kosten

Einmalkosten Entwicklung einer Methode zur Datenaufbereitung.

Fixkosten Wartung und Monitoring des Algorithmus

Variable Kosten

Einmalkosten Entwicklungskosten Algorithmus

Personalkosten für Modeling

Fixkosten Bereitstellung eines Output-Trägers (Webseite, Datenbank, …)

Variable Kosten

Einmalkosten

Fix-Erlöse

Variable-Erlöse

Einmal-Erlöse

Fixkosten Personalaufwand zum Betrieb der IT Infrastruktur

Betriebskosten der IT Infrastruktur

Variable Kosten

Einmalkosten Anschaffungskosten von Hardwarekomponenten

Fehlerquote =Fehlerpunkte

Anzahl Regeln1–

1–

20

Um nun die wirkliche Wertschöpfung zu analysieren, ist es notwendig, die Kosten und Umsätze zu ken-

nen. Die nachfolgende Tabelle stellt beispielhaft mögliche Kosten je Wertschöpfungsstufe dar:

Es lässt sich aus der Tabelle ableiten, dass sich je nach Wertschöpfungsstufe Kosten und Erlöse inner-

halb der eigenen Unternehmung bestimmen lassen. Betrachtet man die Wertschöpfungskette als auf-

einander folgende Fertigungsstufen, bei der die Leistungen jeder Stufe zu Herstellkosten bewertet und

zugeordnet werden können, liegt es nahe, die Bewertung auf Basis der Stufenkalkulation vorzunehmen.

Dies ermöglicht die kalkulatorische Aufgliederung in selbständige Kostenstellen einer Herstellungsphase

(Wertschöpfungsbaustein).

Sind die Kosten bestimmt, müssen die Hygienefaktoren ermittelt werden. Ein vereinfachtes Beispiel er-

klärt zunächst die Bestimmung des Hygienefaktors Fehlerquote, im Anschluss wird auf die Bestimmung

der Aktualität eingegangen, bevor der Grad der Nutzeridentifizierung ermittelt wird.

Um die Fehlerquote zu bestimmen, ist es notwendig, ein Regelwerk für die Datenqualität zu bestim-

men. Diese Aufgabe obliegt dem Informationsmanagement. Das Informationsmanagement legt Regeln

zur Ausprägung einzelner Datenfelder fest. Somit lassen sich je Datensatz Fehlerpunkte bestimmen und

diese gegenüber der Anzahl der Regeln in ein Verhältnis setzen:

BEISPIELHAFTE BEWERTUNG FÜR DIE BESTIMMUNG DER WERTSCHÖPFUNG

Wert Der Wert ist ein Preis mit zwei Dezimalstellen nach dem Komma. Als Komma muss das Trennzeichen Punkt („.“) verwertet werden.

Was Zur Identifikation muss die Transaktion immer die Amazon Standard Identification Number (ASIN) enthalten.

Zahlungsart Folgende Zahlarten stehen mittels einem Secondary-Key zur Verfügung:

1 = EC

2 = Kreditkarte

3 = …

Datum Das Datum ist im Format TT-MM-JJJJ zu speichern.

Datensatz Kein Datensatzfeld darf leer sein.

Quantitative Bewertung

Wert Was Zahlungsart Wann Fehlerpunkt Fehlerquote

6 EC 12-11-2016 3 0,4

6,56 Spielzeug Paypal 2016-11-4 4 0,2

8.99 B01G05UW3I 3 12-11-2016 0 1

1.99 B01G05UW3I 2 15.05.16 1 0,8

Durchschnittliche Datenqualität: 0,6

Fehlerquote =Fehlerpunkte

Anzahl Regeln1–

21BEISPIELHAFTE BEWERTUNG FÜR DIE BESTIMMUNG DER WERTSCHÖPFUNG

Die Fehlerquote gibt je Datensatz an, wie viele Fehler im betrachteten Datensatz auf Basis des defi-

nierten Regelwerks vorliegen. Der Wert „1“ entspricht der vollständigen Richtigkeit des Datensatzes,

hingegen bedeutet „0“, dass keine Regel auf den betrachteten Datensatz zutrifft. Über dieses Verfahren

lässt sich eine durchschnittliche ganzheitliche Betrachtung eines Datenbestands ermöglichen.

Beispiel: Kauftransaktion

Das dargestellte Beispiel soll in kurzer Form helfen zu verstehen, wie eine quantitative Bewertung er-

möglicht werden kann. Im Beispiel hat das Informationsmanagement folgendes festgelegt:

Mithilfe dieses Regelwerks lassen sich Fehlerpunkte vergeben. Trifft jedes Mal eine definierte Bedingung

nicht zu, erhält der Datensatz einen Fehlerpunkt:

Die Fehlerquote berechnet sich je Datensatz und Datenbasis, indem für den Datensatz die Anzahl der

Fehler durch die definierten Regeln (5 Regeln) dividiert und das Ergebnis von 1 subtrahiert wird.

Wert Was Zahlungsart Wann

6 EC 12-11-2016

6,56 Spielzeug Paypal 2016-11-4

8.99 B01G05UW3I 3 12-11-2016

1.99 B01G05UW3I 2 15.05.16

0,4 =3

51–

WAktualität = exp(-Alterung * Alter)

WAktualität = exp(-0,02*(14.11.2016 – 12.11.2016))

WAktualität =0,96079

Grad der Nutzeridentifikation = Stufe der Nutzeridentifikation5

Bezugsfeld zur Bestimmung Wann

Faktor für die Alterung des Datensatzes 0,02

Zeiteinheit Je Tag

Tag der Berechnung 14-11-2016

22 BEISPIELHAFTE BEWERTUNG FÜR DIE BESTIMMUNG DER WERTSCHÖPFUNG

Für die erste Zeile ergibt sich folgende Berechnung:

Ein weiterer Hygienefaktor ist die Aktualität eines Datensatzes. Darunter wird die Gegenwartsbezo-

genheit eines Datenbestands verstanden. Er gibt einen Anhaltspunkt darüber, wie weit die aktuellen ge-

speicherten Daten mit der „Realwelt“ übereinstimmen. Um eine automatisierte Messung zu realisieren,

ist es notwendig, diese Betrachtung auf Basis der Wahrscheinlichkeitstheorie vorzunehmen. Dabei wird

unterstellt, dass die Alterung eines Datensatzes exponentiell erfolgt. Um die Alterung eines Datensatzes

zu bestimmen, wird die Wahrscheinlichkeitsrechnung herangezogen, diese ermöglicht eine exponentielle

Bestimmung zwischen Ausgangsdatum und Gegenwart. Drei Faktoren sind dazu notwendig:

• Bezugsdatensatz zu Bestimmung der Differenz

zwischen letzter Änderung und dem heutigen Bezugsdatum

• Faktor der Alterung je definierter Zeiteinheit

• Definition der Zeiteinheit, z. B. je Stunde, Tag, Woche, Monat, Jahr

Eine vereinfachte Form zur Wahrscheinlichkeitsberechnung stellt die folgende Formel dar:

Für das oben genannte Beispiel soll für den Datensatz vom „12-11-2016“ die Aktualität bestimmt wer-

den. Folgende Definitionen erfolgen, um die Berechnung zu ermöglichen:

Es resultiert, dass der Datensatz mit einer Wahrscheinlichkeit von 0,96079 Punkten (96,079 Prozent) nicht

mehr aktuell ist. Führt man die gleiche Berechnung auf Stundenbasis aus und geht davon aus, dass die Trans-

aktion und die Berechnung 48 Stunden voneinander getrennt sind, beträgt die Wahrscheinlichkeit, dass der

Datensatz aktuell ist, nur 0,38289 Punkte (38,289 Prozent). Es wird deutlich, dass die Alterung immer einen

Bezug auf die betrachtete Zeiteinheit mit sich bringt. Um den Grad der Nutzeridentifikation zu bemessen,

hilft es, die vier Stufen in gleiche Einheiten zu zerlegen. Angenommen wird, dass mit personenbezogenen

Daten die größte Wirkung zwischen Angebot und Absatz erzielt werden kann. Es steigt somit pro Nutzeri-

dentifikationsgrad die Wahrscheinlichkeit eines Abschlusses. Daraus ergibt sich folgende Ableitung:

23ZUSAMMENFASSUNG

ZUSAMMENFASSUNG

Das eigentliche „Gut i. S. eines Handelswertes“ der Data Economy ist nicht das Datum, sondern die

Informationen, die aus der verknüpften Auswertung von einzelnen Daten abgeleitet werden.

Im Kern bestehen Daten aus Zeichen, welche binär oder alphanumerisch vorliegen können. Daten lie-

fern ohne einen Kontext noch keine Information. Es ist möglich, Daten zu sammeln und diese zu ar-

chivieren, doch ohne einen konkreten Kontext liefern Daten zunächst kein neues Wissen i. S. einer

Information. Wurde ein Kontext definiert, können Daten zu Informationen transformiert werden und

erlauben dem Menschen oder der Maschine Wissen zu generieren. Dieser Prozess wird meist mithilfe

eines Algorithmus getätigt. Dieses Wissen fließt dann im Informationsmanagementprozess in die kon-

textbezogene Wertschöpfung ein. Aus dem Dokument lässt sich somit ableiten, dass Daten nicht das

neue Öl sind, denn sie haben keinen Wert an sich. Erst durch den wertschöpfenden Prozess lassen sich

neue Informationen gewinnen für Stakeholder ein Interesse und Bedeutung haben.

Daten sind wertschöpfend, wenn ihre Nutzung zu einer quantifizierbaren Steigerung einer monetären

Zielfunktion führen kann. Um den Wert von Daten zu bemessen, ist es notwendig, sich auf Basis der

eigenen Geschäftsmodelle mit einer eigenen Bewertung der Daten zu befassen. Die horizontale Wertbil-

dung beschreibt im Wesentlichen den Weg von Daten zur Information ab, hingegen umfasst die vertikale

Wertschöpfung den der Informationsgewinnung.

Mit der Zunahme der Menge erfasster Daten gewinnen Daten im Kontext unternehmerischer Ent-

scheidungen eine immer größere Bedeutung. Die Wertbemessung von Daten für Unternehmen wird

maßgeblich von zwei Faktoren beeinflusst: der Datenstrategie eines Unternehmens und dem Grad der

Nutzeridentifikation. Nach diesen Faktoren muss jedes Unternehmen individuell nach seiner Dynamik

den Daten Wert beimessen. Eine Standardisierung der Datenmetrik ist nicht möglich.

Die Datenstrategie eines Unternehmens muss als Reifemodell gesehen werden, welches nach den fol-

genden vier Entwicklungsstufen differenziert wird: Monitoring, Optimierung und Marktdifferenzierung,

Wachstum und Disruption durch neue Erlösquellen sowie Monetarisierung. Der Grad der Nutzeri-

dentifikation lässt sich nach anonymen Daten, pseudonymen Daten und registrierungsbasierten Daten

differenzieren. Dabei geht jedes Unternehmen individuell vor und erzeugt so eine individuelle Dynamik,

auf dessen Basis dann die Bewertung stattfinden kann.

Eine hohe Datenqualität ist Grundvoraussetzung für funktionierende betriebliche Abläufe. Deshalb gibt

es das Informationsqualitätsmanagement, welches als elementarer Baustein in Systemintegrationspro-

zessen fungiert. Die Bewertung von Informationsqualität ist die Voraussetzung für Ressourcenentschei-

dungen und Zielfestlegungen. Basierend auf dem Konzept von Wang und Strong aus dem Jahr 1996

lassen sich Merkmale zur Datenqualität in 15 Dimensionen und vier Kategorien unterteilen: System,

Inhalt, Darstellung und Nutzung. Aufgrund des Alters des Konzeptes und der Weiterentwicklung im

technischen Bereich ist allerdings eine Aktualisierung der Inhalte notwendig.

Die Bestimmung der Wertschöpfung von Daten ist mithilfe des Data Value Costs auf Basis der Stufen-

kalkulation berechenbar. Somit lässt sich der betriebswirtschaftliche Wertbeitrag ermitteln. Dafür ist es

allerdings notwendig, im Rahmen des Total Data Quality Managements einen Basiskatalog zu generieren,

um ein branchenübergreifendes Verständnis von Daten, Datensätzen und deren Ausprägung zu erhalten.

24 BUNDESVERBAND DIGITALE WIRTSCHAFT (BVDW) E.V.

BUNDESVERBAND DIGITALE WIRTSCHAFT (BVDW) E.V. Der Bundesverband Digitale Wirtschaft (BVDW) e.V. ist die zentrale Interessenvertretung für Unternehmen, die digitale Geschäftsmodelle betreiben oder deren Wertschöpfung auf dem Einsatz digitaler Technologien beruht. Mit Mitgliedsunternehmen aus unterschiedlichsten Segmenten der Internetindustrie ist der BVDW interdisziplinär verankert und hat damit einen ganzheitlichen Blick auf die Themen der Digitalen Wirtschaft.

Der BVDW hat es sich zur Aufgabe gemacht, Effizienz und Nutzen digitaler Angebote – Inhalte, Dienste und Technologien – transparent zu machen und so deren Einsatz in der Gesamtwirtschaft, Gesellschaft und Administration zu fördern. Außerdem ist der Verband kompetenter Ansprech-partner zu aktuellen Themen und Entwicklungen der Digitalbranche in Deutschland und liefert mit Zahlen, Daten und Fakten wichtige Orientierung zu einem der zentralen Zukunftsfelder der deutschen Wirtschaft.

Im ständigen Dialog mit Politik, Öffentlichkeit und anderen, nationalen und internationalen Interessen- gruppen unterstützt der BVDW ergebnisorientiert, praxisnah und effektiv die dynamische Ent-wicklung der Branche. Fußend auf den Säulen Marktentwicklung, Marktaufklärung und Markt- regulierung bündelt der BVDW führendes Digital-Know-how, um eine positive Entwicklung der führenden Wachstumsbranche der deutschen Wirtschaft nachhaltig mitzugestalten.

Gleichzeitig sorgt der BVDW als Zentralorgan der Digitalen Wirtschaft mit Standards und verbind-lichen Richtlinien für Branchenakteure für Markttransparenz und Angebotsgüte für die Nutzerseite und die Öffentlichkeit.

Wir sind das Netz.

www.bvdw.org

25RESSORT DATA ECONOMY IM BVDW

RESSORT DATA ECONOMY IM BVDW

Daten sind die Grundlage für unzählige Wertschöpfungsprozesse der Digitalen Wirtschaft. Mit un-serem Ressort Data Economy möchten wir die marktübergreifende Zusammenarbeit unterschiedli-cher Stakeholder im Bereich Data fördern und auf nationaler wie auf europäischer Ebene eine Inte-ressenvertretung für den Bereich Data Economy etablieren. Ziel ist es, mit fairen Marktbedingungen und unter Gewährleistung von Daten- und Verbraucherschutz sicherzustellen, dass Unternehmen der Digitalen Wirtschaft erfolgreich arbeiten können.

Das Ressort Data Economy begleitet hier außerdem aktiv nationale und europäische Gesetzge-bungsvorhaben mit dem Ziel, rechtssichere und praktikable Rahmenbedingungen für die Branche durchzusetzen. Die Aufklärung über Anwendungsszenarien im Bereich Big Data und die hinter diesen Geschäftsmodellen stehenden Wertschöpfungsketten ist ein zentraler Bestandteil unserer Aktivitäten. Unsere Schwerpunktarbeit, zu der wir Sie einladen sich jederzeit zu beteiligen, deckt insbesondere die nachfolgenden Themenbereiche ab:

Zustimmungsbasierte Geschäftsmodelle Crossmediale Nutzungsdaten Data Handling Compliance Datenschutz

Des Weiteren ist das Ressort Data Economy innerhalb des BVDW die Schnittstelle zum Deutschen Datenschutzrat Online-Werbung (DDOW). Der DDOW ist die freiwillige Selbstkontrolleinrich-tung der digitalen Werbewirtschaft für nutzungsbasierte Online-Werbung, an der der BVDW als einer der Trägerverbände federführend beteiligt ist.

DATENWERTSCHÖPFUNG UND QUALITÄT VON DATEN

Erscheinungsort und -datumDüsseldorf, April 2018

HerausgeberBundesverband Digitale Wirtschaft (BVDW) e.V.Schumannstraße 210117 Berlin+49 30 2062186 - [email protected]

GeschäftsführerMarco Junk

PräsidentMatthias Wahl

VizepräsidentenThomas DuhrThorben FaschingAchim HimmelreichStephan NollerFrederike ProbertMarco Zingler

KontaktMichael Neuber,

Leiter Politik und Regulierung / Rechtsanwalt / Justiziar, [email protected]. Wolfgang Gründinger

Referent Digitale Transformation, [email protected]

VereinsregisternummerVereinsregister Düsseldorf VR 8358

RechtshinweiseAlle in dieser Veröffentlichung enthaltenen Angaben und Informationen wurden vom Bundesver-band Digitale Wirtschaft (BVDW) e.V. sorgfältig recherchiert und geprüft. Diese Informationen sind ein Service des Verbandes. Für Richtigkeit, Vollständigkeit und Aktualität können weder der Bundes- verband Digitale Wirtschaft (BVDW) e.V. noch die an der Erstellung und Veröffentlichung dieses Werkes beteiligten Unternehmen die Haftung übernehmen. Die Inhalte dieser Veröffentlichung und / oder Verweise auf Inhalte Dritter sind urheberrechtlich geschützt. Jegliche Vervielfältigung von Informationen oder Daten, insbesondere die Verwendung von Texten, Textteilen, Bildmaterial oder sonstigen Inhalten, bedarf der vorherigen Zustimmung durch den Bundesverband Digitale Wirtschaft (BVDW) e.V. bzw. die Rechteinhaber (Dritte).

AusgabeErstausgabe

TitelmotiviStock / NicoElNino

26 IMPRESSUM

Bundesverband Digitale Wirtschaft (BVDW) e.V.Schumannstraße 210117 Berlin+49 30 2062186 - [email protected]

Herausgeber


Recommended