Optimal 01/2017: Aus Daten lernen

Page 1

#1 | 2017

DURCHSCHNITT!

Kundenmagazin der Agentur kernpunkt

Was wir aus Daten lernen kรถnnen


Überall finden sich Daten Auch ein Baumring liefert Daten. Um Daten zu bekommen und aus ihnen Schlüsse zu ziehen, ist ein wenig Arbeit notwendig. Im Fall des Baumringes braucht es zum einen physische Arbeit, denn mit einer Säge muss in die „Privatsphäre“ des Baumes eingedrungen werden. Zum anderen braucht es aktuelles und historisches Vergleichsmaterial und Deutungsfähigkeiten, um Erkenntnisse zu gewinnen. Baumringe werden so Jahr für Jahr ausgewertet, um über große Dürren und über Entwicklungen von Niederschlag und Temperaturen zu berichten oder um das Alter der Bäume zu verraten. Ähnlich verhält es sich mit den Daten in einem Unternehmenskontext und bei uns: Überall finden sich Daten, und es muss an die Arbeit gehen, um ihren Wert verstehen zu können. Daten entstehen, werden gefunden, extrahiert, angepasst und vergleichbar gemacht. Wir erhalten Zugang, und Daten werden visualisiert und dann gedeutet, um Erkenntnisse über uns Menschen, über Maschinen und unsere Welt zu liefern. In dieser Ausgabe haben wir uns Daten einmal genauer angeschaut. Was sind Daten eigentlich? Und wer arbeitet mit ihnen? Überall heißt es: „Gib mal deine Daten!“ – aber heutzutage können wir immer öfter auch wieder fordern: „Gib mir meine Daten!“. Deswegen haben wir unter anderem versucht herauszufinden, was denn Google und Facebook so über uns wissen. Zum Thema Big Data haben wir mit Klaas Wilhelm Bollhoefer, Chief Data Scientist von The unbelievable Machine Company (*um) aus Berlin, gesprochen. Außerdem haben wir Daten sichtbar gemacht und erklären, wie wir auch hier bei kernpunkt in unserem Data Warehouse mit Daten arbeiten.

Viel Spaß bei der Lektüre!

Matthias Steinforth, Geschäftsführung Marketing und Vertrieb

2

Optimal | Kundenmagazin der Agentur kernpunkt


Inhalt 04 Schwerpunkt 2,5 Trillionen Bytes

Autoren dieser Ausgabe

06 Nun geht es ans Arbeiten! Interview mit Klaas Wilhelm Bollhoefer von *um 08 Welche Daten erzeugen wir an einem Tag? Ein beliebiges Datum 10 Daten sichtbar machen Erkenntnisse auf einen Blick

Matthias Steinforth Geschäftsführer

12 Wissen, was morgen ankommt Predictive Analytics 14 Mit Daten arbeiten kernpunkt und das Data Warehouse 16 Gib mir meine Daten! Was wissen Google und Facebook?

Judith Geuking Marketing

18 Daten sind Macht Und mit Open Data hat jeder Zugang 20 Verantwortung übernehmen Datensicherheit

Dominik Neumann Marketing

22 Maschinen passen auf sich auf Industrial Analytics

Impressum: kernpunkt Holding GmbH, Oskar-Jäger-Str. 173, 50825 Köln | Verantwortlich für den Inhalt: Matthias Steinforth | Auflage: 2.500 Stück | Erscheinung: dreimal pro Jahr | Layout: Verena Stark | Bildmaterial: kernpunkt Holding GmbH, istockphoto.com, Klaas Bollhoefer/*um, Data Selfie www.kernpunkt.de

# 1 | 2017

3


Schwerpunkt

2.500.000.000. 000.000.000 2,5 Trillionen – so viele Bytes an Daten entstehen laut IBM an jedem einzelnen Tag.

4

Optimal | Kundenmagazin der Agentur kernpunkt


Es heißt, 90 % der existierenden Daten sind allein in den letzten zwei Jahren entstanden. Wo es 1992 noch 100 GB pro Tag waren, sind es heute fast 50.000 GB in der Sekunde. Und es werden immer mehr, neuerdings auch begünstigt durch das Internet der Dinge. Alle Daten verbindet eines: Die Daten entstehen durch Menschen. Dadurch, was Menschen tun, was sie erarbeiten, zum Teil mithilfe von Maschinen, die dann auch Daten produzieren. Heutzutage zahlen Menschen freiwillig mit ihren Daten: ob online, am Smartphone, beim Bezahlen mit der Kreditkarte. Daten gibt es, wohin das Auge reicht. Aufgrund von Daten können Menschen und Prozesse verstanden werden. Dadurch basieren immer mehr Geschäftsmodelle auf einer wirtschaftlichen Nutzung dieser Daten, sei es personenbezogen für individuelle Angebote und Werbung oder aber auch anonymisiert, um aus Daten Erkenntnisse zu gewinnen. Was sind eigentlich Daten? Genau genommen sind Daten Elemente einer Information, ob digital oder analog. Sie sind Zeichen mit einer Bedeutung und dienen dem Zweck einer Verarbeitung, zur Speicherung oder als ein Ergebnis. Das Volumen an digitalen Daten wächst immer mehr. Daher sprechen wir von Big Data: ein ungeheures Aufkommen an Daten, die nicht mehr so einfach verwaltet und verarbeitet werden können. Große Datensammlungen sind nicht mit jeder Software zu erfassen und zu analysieren. Es braucht spezielle Software und Visualisierungstools. Bei Big Data und dem digitalen Wandel aber nur an IT zu denken, ist zu wenig. Ja, erst die Technologie ermöglicht es uns, alle Datentypen zu analysieren. Es geht aber gerade aufgrund der technologi-

schen Möglichkeiten vielmehr darum, was die vorhandenen Daten für uns Menschen tun können, also wie wir sie nutzen können.

Da · ten durch Beobachtungen, Messungen, statistische Erhebungen u. a. gewonnene [Zahlen]Werte, Angaben, formulierbare Befunde

Die Datenverarbeitung von Big Data muss praxisnah sein und es ermöglichen, kreativ in Lösungen zu denken. So können auf der einen Seite große Vorteile generiert werden: Daten aus Autosensoren oder Standortdaten aus Smartphones helfen der Optimierung von Verkehrsströmen und Infrastruktur, Daten aus der Smartwatch unterstützen beim Gesundheitscheck und andere Daten zum Beispiel aus dem Krebsregister können sogar der weiteren Krebsforschung dienen. Auf der anderen Seite können Daten natürlich auch missbraucht werden, und Nutzer wissen oft nicht, was

genau ein Unternehmen nun über sie weiß und wie dieses Wissen verwendet wird. Denn die Frage danach, wem die Daten eigentlich gehören, wird immer schwieriger zu beantworten. Es ist nicht einfach, seine digitale Privatsphäre zu kontrollieren. Wohin mit den Daten? Die Potenziale sind insgesamt riesig. Jedoch ist nichts davon möglich, wenn Daten weiterhin unstrukturiert herumliegen. Daten müssen verknüpft und nach Mustern durchsucht werden. Wie Daten also verwendet, vor allem welche Daten genutzt und wie diese interpretiert und verstanden werden, macht den großen und entscheidenden Unterschied in der Zukunft. Die sinnvolle Interpretation bleibt dabei auch die größte Herausforderung. Das bedeutet Veränderungen, auch im technischen Sinne, ebenso wie große Chancen. Heute muss Data Science auf Strategie treffen, und mit der richtigen Technologie können neue Fragen gestellt und Lösungen gefunden werden. Das gilt für den öffentlichen Sektor genauso wie für ein Unternehmen. Das Thema Daten muss aus der IT-Ecke herausgeholt und auch in der Chefetage angesiedelt werden. Daten bieten dann nicht nur Einblicke in Kunden und potenzielle Interessenten, um so eine personalisierte Ansprache zu ermöglichen, oder Einblicke in interne Unternehmensprozesse, um zu optimieren. Daten sind dazu vielmehr ganz allgemein die Mittel, um heute dazuzulernen, richtige Entscheidungen zu treffen und zu verändern.

# 1 | 2017

5


Interview

„NUN GEHT ES ANS ARBEITEN!“ Herr Bollhoefer, das Netz stellt Sie als erklärten Data Scientist und Big Data Evangelist dar. Erklären Sie sich doch einmal kurz. Wie ist es dazu gekommen? Wir haben bei Unbelievable Machine 2011 das Thema Big Data gestartet, und just in der Zeit schwappte auch der Begriff Data Science bzw. die neue Rolle des Data Scientists über den großen Teich. Ich war zu der Zeit schätzungsweise einer der ersten Data Scientists und kurze Zeit später einer der ersten Chief Data Scientists im deutschsprachigen Raum. So fing es an. Nach nunmehr gut 5 Jahren Big Data in Deutschland habe ich viel erlebt, unzählige Projekte in nahezu allen Branchen realisiert sowie als Speaker & Experte auf jeder Art Forum den Themenkomplex Daten, Künstliche Intel6

ligenz & Co. adressiert. Das hatte und hat viel mit „Evangelisieren“ zu tun, da wir doch immer noch am Anfang der Entwicklungen und Möglichkeiten stehen. Alle reden von Big Data – der Hype ist vorbei, und nun können Unternehmen starten? Der Hype ist vorbei, zumindest was die Thematik Big Data betrifft, nun geht es ans Arbeiten. Und es wird massiv gearbeitet. Das Thema Big Data ist verstanden und da, die ersten Hürden und Meilensteine genommen, Practices gelernt und entwickelt, und an vielen Stellen ist die neue Datenwelt bereits ein älterer Hut. Gleichzeitig hat aber eine enorme Differenzierung und Spezialisierung stattgefunden und findet weiter statt. An Stelle von Big Data reden

Optimal | Kundenmagazin der Agentur kernpunkt

wir über Internet of Things, Industrie 4.0, Smart Data, Machine Learning usw. Auch dort überall bilden die Daten die Basis, und de facto entstehen die nächsten Hypes. Wäre ja auch sonst langweilig, wenn Gartner nichts mehr zu vermelden hätte und wir endlich mal wieder in Ruhe ohne technische Störung an unserer Digitalen Transformation feilen dürften, oder? ;-) Doch was erschwert die Nutzung von Daten? Wo liegen Herausforderungen? Das Arbeiten mit Daten war, ist und wird niemals einfach sein. Die Herausforderungen liegen überall, im Technischen wie im Organisatorischen, in den Skills und den Prozessen, in der Unternehmenskultur vergraben oder in Guidelines & Regelwerken verhaftet. Daher ist es wesentlich, Big


Data nicht als technische Aufgabe abzutun und damit zwanghaft direkt in der IT zu verorten. Für Daten, Algorithmen, Technologien und den damit möglichen Wandel in Unternehmen ist ein neues Mindset vonnöten, neue Denk- und Arbeitsweisen. Die Etablierung dieses Mindsets trifft die Unternehmen im Kern und erfordert eine neue Form in Leadership und Management. Einschätzung: Macht es also noch niemand? Ganz im Gegenteil. Es machen quasi alle! Wollen und machen – dazwischen liegen aber Welten? Wohl wahr. Und auch hier liegen die Herausforderungen, die es zu meistern gilt. In vielen Unternehmen werden Big-DataProjekte viel zu kurz gedacht und mehrheitlich nur prototypisch als Machbarkeitsstudie realisiert. So sinnvoll und gut das nach der agilen Lehre erscheint, so problematisch ist es auch. Big-Data- & Künstliche-Intelligenz- Projekte zielen darauf ab, einen relevanten Business Value zu erzielen. Wenn dieser zu Anfang nicht klar definiert ist und im Rahmen eines Proof of Concept (PoC) nicht bis zum möglichen Live-Betrieb einer neuen Data Solution gedacht und geplant wurde, hat man nichts gewonnen außer vielleicht den einen oder anderen Lerneffekt. Projekte dieser Art sind nicht Plug & Play von irgendwelchen hippen neuen Technologien oder Systemlösungen, es sind maßgeschneiderte Lösungen im Sinne des Unternehmens. Kann es jedes Unternehmen wollen und machen? Sind in jedem Unternehmen entscheidende Daten vorhanden? Wollen ja. Machen vielleicht. Selbst wenn ein Unternehmen wenig eigene Daten generiert und speichert, gibt es unzählige Use Cases auf Basis unternehmensexterner Daten, die einen relevanten Business Value generieren können, bspw. auf Basis von Social-Media-Daten. Auch in dem Themenfeld stehen viele Unternehmen noch ganz am Anfang und können unter dem Etikett „360° Kunden“ beginnen, neue Datenquellen zu erschließen, zu analysieren und in Data Solutions zu überführen. Gibt es eine Handlungsanleitung hin zu einem digitalen Unternehmen? Wir haben bereits 2012 unser Data Science Process Model entwickelt, das – von Gart-

ner seinerzeit ausgezeichnet – ein Vorgehensmodell zur Entwicklung von Datenlösungen in 6 Phasen gliedert, „from idea to cable“. Dieses Modell haben wir 2016 zu unserem Data Leadership Process Model erweitert, dessen Dreh- und Angelpunkt etwas ist, das wir Data Thinking nennen. Eine neue „Logik“, die Unternehmen benötigen, um wieder ins Lead ihrer eigenen digitalen Entwicklung zu gelangen. Auf unserer Website kann man ein kostenloses Whitepaper zu Data Thinking runterladen. Was ist denn der erste Schritt in Richtung Big-Data-Nutzung? Wo kann oder soll ein Unternehmen anfangen? Der erste Schritt ist, sich mit den neuen Möglichkeiten intensiv auseinanderzusetzen, zu lernen und Ideen zu entwickeln. Der Beginn ist ein kreativer Prozess und nicht der Erwerb eines Lizenzprodukts. Wie, wo und wann Unternehmen anfangen, „neu zu denken“, ist ihnen selbst überlassen. Die Empfehlung ist aber ganz klar – sofort! Es ist atemberaubend, was insbesondere im Bereich Künstliche Intelligenz an Innovationskraft steckt und welche Möglichkeiten sich dort auftun. Es ist wirklich essenziell, sich direkt damit zu befassen und die Potenziale, aber auch Risiken zu begreifen. Im Nachgang bewusst zu sagen: „Wir warten noch 1-2 Jahre ab, wie sich das weiterentwickelt“, ist legitim. Aber auch erst dann. Big Data ist also nicht nur Sache der IT? Nein! Big Data in all seinen Facetten und Möglichkeiten ist Sache des gesamten Unternehmens und muss vom C-Level getragen und gefördert werden. Aber ohne neue Technologien und die Offenheit ihnen gegenüber geht es nicht? Neue Technologien sind zu gegebener Zeit meistens notwendig und sinnvoll, aber nicht von Tag 1 an. Wie gesagt – es beginnt mit Ideen, dem Ausloten neuer Möglichkeiten, einem neuen Denken. Die daraus resultierenden Lösungen dann in die Tat umzusetzen, erfordert Technologie und etablierte Vorgehensmodelle in Softwareentwicklung und Betrieb und damit verbunden auch häufig neue Skills, remodellierte Prozesse und Routinen. Was können realistische Ziele mit den ersten Big-Data-Schritten sein? Eine Op-

timierung von 0 auf 100 ist vermutlich nicht zu erwarten. Sinnvoll und realistisch ist, erste, nicht zu komplexe Projekte zu identifizieren und zu realisieren, aus diesen zu lernen und Schritt für Schritt die eigene Lern- und Entwicklungskurve zu durchlaufen. Auch wenn es so klingt, als müsste ich das jetzt sagen, aber es ist sinnvoll, hierfür erfahrene Partner und Experten zurate zu ziehen. Wir und andere am Markt haben einen großen Erfahrungsschatz aufgebaut, den wir gern mit allen teilen. Man muss nicht jeden Fehler noch einmal machen. Einen letzten Denkanstoß, den Sie geben möchten? “The greatest danger in times of turbulence is not the turbulence; it is to act with yesterday’s logic.” (Peter Drucker)

Klaas Wilhelm Bollhoefer ist Chief Evangelist von The unbelievable Machine Company (*um), Data Science Professional, Stratege, Impulsgeber und Dozent mit Lehraufträgen an zahlreichen Hochschulen. An der Schnittstelle aus Business, IT, Künstlicher Intelligenz und Design entwickelt er zukunftsweisende Strategien, kreiert Ideenräume und Perspektiven. Darüber hinaus ist er Autor für diverse Fachmagazine sowie langjähriges Mitglied in Beiräten und Jurys zahlreicher internationaler Veranstaltungen. The unbelievable Machine Company GmbH (*um) ist ein unabhängiger Full-Service-Dienstleister für Big Data, Cloud Services und Managed Hosting. # 1 | 2017

7


Ein beliebiges Datum

Welche Daten erzeugen wir an einem Tag? Als Menschen produzieren wir Daten. Sitzen wir nicht im Büro am PC, begleiten uns unser Smartphone oder andere tragbare Gadgets durch den restlichen Tag. So hinterlassen wir Spuren. Das Smartphone ist unser persönlicher Tracker geworden. Was wir machen, wo wir es machen und mit wem wir es machen, wird gespeichert. Vorratsdatenspeicherung nennt man dies unter Umständen, wenn solche Daten wie Telefonnummern und Standortdaten für öffentliche Stellen gespeichert werden. Doch auch ohne öffentliche Stellen speichern Menschen schon privat und eigentlich ganz freiwillig unzählige Daten. Das hier ist der Versuch, die erzeugten Daten eines kernpunkt-Mitarbeiters an einem Tag zu protokollieren.

6:50

6:45

8:03

7:50

8:15

06.45 Uhr Mein Wecker, eine App, weckt mich. Über Nacht habe ich deswegen schon Daten erzeugt: über meine Tiefschlafphasen und meine wachen Phasen. Die App wird mich morgens wecken, wenn ich nicht in einer Tiefschlafphase stecke. Dazu werde ich mit einem Graph begrüßt, der mir meine Schlafphasen visualisiert. Denn ohne die Daten visuell verfügbar zu machen, wäre die App nur halb so spannend.

kationspartner? Automatisch gesammelt werden dazu auch Geräte- und Verbindungsdaten, die IP-Adresse und Angaben zum Mobilfunknetz. Außerdem steht in der Datenschutzrichtlinie von WhatsApp: „Du stellst uns regelmäßig die Telefonnummern in deinem Mobiltelefon-Adressbuch zur Verfügung, darunter sowohl die Nummern von Nutzern unserer Dienste als auch die von deinen sonstigen Kontakten.“

06.55 Uhr Auf mich warten ungelesene WhatsApp-Nachrichten. Ich hoffe darauf, dass die App die Ende-zu-Ende-Verschlüsselung einhält. Weiterhin werden Metadaten gesammelt. Mit wem schreibe ich wann, wo bin ich dann, und wo ist mein Kommuni-

07:10 Uhr Ich besitze noch keinen smarten Kühlschrank. Dass ich also O-Saft und Joghurt entnehme, bleibt noch mein kleines Geheimnis. Die Einkaufsliste schreibe ich auch noch mit der Hand.

8

Optimal | Kundenmagazin der Agentur kernpunkt


07:50 Uhr Auf dem Weg zur Bahn kaufe ich einen Kaffee mit der EC-Karte. Bin ich daher ein gläserner Konsument? Wenn ich mit meiner EC-Karte und Unterschrift bezahle, wickelt ein Unternehmen wie Easycash die Transaktion ab. In Datenbanken kann Easycash so speichern, wann welche Kartennummer wo und für wie viel gekauft hat. 08:03 Uhr Bevor es in die Bahn geht, kaufe ich das StraßenbahnTicket mobil per App. Um dies bei der KVB – den Kölner Verkehrsbetrieben – mobil erledigen zu können, muss ich bei HandyTicket Deutschland registriert sein. Mehr Daten an die Betreiber. 08:15 Uhr Während der Fahrt informiere ich mich mit Google News. Nachrichten werden mir im Allgemeinen anhand der Berechnungen eines Computeralgorithmus angezeigt. Ich habe in meinem Google-Konto auch "Web- & App-Aktivitäten" aktiviert. Daher gibt es auch News-Vorschläge für mich, die anhand der Daten von bisheriger Aktivitäten auf Google ermittelt werden. Welche Artikel und Themen ich bevorzugt lese, merkt sich die App. 08:40 Uhr Auf der Arbeit angekommen – Personalzeiterfassung im Büro gibt es im traditionellen Sinne nicht mehr bei kernpunkt. Ich buche meine Zeit auf Projekte und Aufgaben. Hier fallen Daten an, wann ich wie viel für ein bestimmtes Projekt gearbeitet habe oder mit wem ich gearbeitet habe. Ich erfasse aber nicht mehr, wann ich im Büro angekommen oder wann ich gegangen bin oder wann ich wie lange Pausen mache. 08:45 Uhr Ich beginne mit einem Kaffee. Die Maschine sammelt jeden Tag Daten über unseren Kaffeeverbrauch, und ich sehe, wir liegen heute um diese Uhrzeit 10 % unter dem gestrigen Kaffeeverbrauch gemessen an Tassen zur gleichen Zeit.

8:45

E-Mail öffne und mich bestimmte Themen interessieren – transparent durch meine Link-Klicks. So können mich Verantwortliche bewerten und ein Profil erstellen, um noch passendere Inhalte zu verschicken. 12.15 Uhr In der Mittagspause buche ich online einen Tennisplatz für Mittwochabend. Die Anbieter können durch diesen Onlinedienst und die Daten ganz genau verfolgen, wann wer was bucht. Durch viele Nutzer ist auch klar, zu welchen Zeiten am meisten gespielt wird und welche Tage beliebt sind. Dadurch können Betreiber beispielsweise Preise und Öffnungszeiten gewinnbringend anpassen. Habe ich vielleicht schon lange nicht mehr gebucht? Dann wäre mal ein nettes Angebot oder Rabatt fällig. Im Bereich des Online-Shoppings funktioniert dies ähnlich. Hier und da erhalte ich daher „Wir vermissen Sie“-E-Mails mit einem Gutschein dazu.

Während der Arbeit 2 Ich schreibe Mails. Die Inhalte der E-Mails sind heutzutage verschlüsselt. Trotzdem gilt dies nicht immer für die Metadaten wie Sender und Empfänger, teilweise Betreff. Metadaten verraten so sehr einleuchtend, mit wem beispielsweise am meisten kommuniziert wird und teilweise auch über was. Über die Metadaten von Telefon- und E-Mail-Verkehr können mit den richtigen Mitteln soziale Netzwerke ohne Probleme identifiziert werden. Visualisiert werden kann dies bei Interesse über https://immersion.media.mit.edu/. 18:25 Uhr Nach der Arbeit bin ich noch zum Essen verabredet. Da ich den Weg ins Restaurant nicht genau kenne, öffne ich Google Maps und lasse mich navigieren. Google sammelt meine Standortdaten und kann mithilfe meiner Daten und mit den Daten vieler anderer Menschen beispielsweise Staus vorhersagen und früh

12:15

8:50

Während der Arbeit 1 Ich bin auf das Surfen im Internet angewiesen. Ob über Cookies und besuchte Webseiten, geklickte Werbebanner oder Suchanfragen – hier hinterlasse ich Spuren. Webseitenbetreiber wissen z. B. durch Cookies, ob ich schon einmal da war, auf welchen Seiten ich sonst war und welche Werbung mir daher angezeigt werden sollte. Ich öffne E-Mails. Heutzutage werden besonders Newsletter durch smarte und automatisierte E-Mail-Programme verschickt. Hier erzeuge ich Daten durch Klicktracking, Smartlinks und andere Scoring-Möglichkeiten. Es bleibt kein Geheimnis, dass ich eine

22:15

18:25

auf eine Umleitung hinweisen – und im Restaurant komme ich schnell an. 22:15 Uhr Bevor ich den Tag beende, schaue ich mir noch an, was es bei Netflix gibt. Die entstehenden Daten nutzt Netflix, um mir neue Sendungen und persönliche Empfehlungen vorzuschlagen. Netflix ist data-driven bis in das kleinste Detail. Die Firma erhebt sogar Daten über Teaser-Bilder und verwendete Farben. Dies ermöglicht eine tief greifende Kundeneinsicht und Form der Personalisierung, sodass auch Titelbilder und Farben automatisiert angepasst werden – je nach Nutzer. # 1 | 2017

9


Daten sichtbar machen Berlin, Hamburg und die Metropolregion Rhein-Ruhr: Auf einen Blick kann der Grafik entnommen werden, wo die Marketing-Kampagne die meisten Conversions verzeichnet. Dahinter steckt viel mehr als eine Deutschlandkarte mit gelben Punkten: Als Datenbasis dient eine riesige ExcelArbeitsmappe mit einer Vielzahl von Variablen, tausenden Datensätzen und unzähligen Ausprägungen. Wer aus einer solchen Mappe auf direktem Wege Erkenntnisse ziehen will, würde dafür wohl Stunden benötigen. Mithilfe einer prägnanten Visualisierung der Daten hingegen erkennen wir relevante Informationen praktisch sofort – ohne die Komplexität der zugrunde liegenden Daten auch nur erahnen zu müssen.

10

Optimal | Kundenmagazin der Agentur kernpunkt


Mit Tableau erstellt: Verteilung von Conversions und Cost-per-Lead (CPL) nach Uhrzeit und Wochentagen

Daten, wohin das Auge blickt Am Anfang unserer beispielhaften Datenanalyse steht die Erfassung von Marketing-Kampagnen in tabellarischer Form. Ob Affiliate, Direct Marketing, Display, E-Mail, Mobile, SEA oder SEO: Alle Kampagnenformen fließen hier zusammen. Kein Wunder also, dass die Datenbasis sehr große Ausmaße annimmt. Für alle Kampagnen sind – neben vielen weiteren Informationen, die für die Analyse nicht als relevant erachtet werden – Daten bezüglich der Conversions, ihrer Kosten und Zeitpunkte verfügbar. Wenn vorhanden, können per IP-Geolokalisierung auch Aussagen über den ungefähren Ort getroffen werden, an dem die Conversion ausgelöst wurde. So lautet einer der vielen Datensätze also: Ein Interessent im Raum Bochum hat am 21. Februar 2017 um 10:24 Uhr eine Marketing-Mail geöffnet, einen Link zu einem spannenden Artikel auf der Website angeklickt und sich dort schließlich über ein Formular für ein Webinar angemeldet. Es dürften also alle Informationen vorliegen, die notwendig sind, um zu schlüssigen Erkenntnissen zu kommen. Schließlich würde das betreffende Unternehmen bei all seinen Marketingmaßnahmen gerne einen Überblick über Erfolge (und Misserfolge) erhalten, um Antworten auf entscheidende Fragen zu finden: Auf welchen Wegen werden eigentlich die meisten Conversions erzielt? Was kosten diese jeweils, wann sind sie günstiger, wann teurer? Werden tatsächlich vor allem Interessenten im regionalen Einzugsgebiet erreicht? Wo gibt es noch etwas zu optimieren, welche Kampagnen funktionieren insgesamt gut und welche sollten besser eingestampft werden?

Manuelle Datenanalyse ist komplex Die gute Nachricht ist: All diese Fragen können prinzipiell mit der vorhandenen Datenbasis beantwortet werden. Es gibt aber einen Haken: Bis am Ende der Auswertung ein mehr oder weniger aussagekräftiger Bericht steht, bedeutet die mühsame Kleinarbeit mit Tabellen einen enormen Aufwand. Und sobald die Daten bearbeitet werden oder neue hinzukommen, beginnt die Arbeit wieder

von vorn. Die manuelle Datenanalyse ist also nicht nur zeitraubend, sondern auch repetitiv – und dabei werden die eigentliche Umsetzung der Analyse und ihre Form noch gar nicht berücksichtigt. Dabei weiß wohl jeder, der schon einmal mit der Aufarbeitung von Daten in Berührung gekommen ist, wie knifflig das Erstellen einer schlüssigen Visualisierung sein kann, vor allem mit den gängigen Office-Tools.

Wie Software zweifach Abhilfe schafft Um dieses Problem zu lösen, gibt es Tools zur Datenvisualisierung. Sie ermöglichen es dem Nutzer, ohne tiefgründige Design-Kenntnisse und das Abtauchen in wirren Tabellen aufschlussreiche und ansehnliche Grafiken oder Diagramme zu erstellen. Dabei ist es eigentlich nur das sprichwörtliche Tüpfelchen auf dem i, wenn solche Software die Daten vordergründig hübsch macht. Denn der eigentliche Clou ist, dass sie alle verfügbaren Daten unter der Haube verarbeitet, interpretiert und vor allem sinnvoll miteinander verknüpft. In der Folge spielt es kaum eine Rolle, woher die Daten kommen: Ob Excel, Salesforce, ERP-Systeme oder Webanalyse-Tools, gute Software für die Datenvisualisierung kommt mit allen verbreiteten Quellen zurecht. Sind diese einmal verbunden und ihre Daten in Dashboards organisiert, steht der effizienten Datenanalyse nichts mehr im Weg. Praktisch in Echtzeit können mit wenigen Klicks Berichte erstellt, bearbeitet und aktualisiert werden, die vor allem eines ausmacht: Sie ermöglichen auf einen Blick relevante Aussagen.

Der Marktführer in der professionellen Datenanalyse ist Tableau Software. Der Hersteller mit Sitz in Seattle bietet mit Tableau ein leistungsstarkes Paket für die anschauliche und verständliche Aufbereitung von Informationen jeder Art. Das Tool verarbeitet Daten aus verschiedensten Datenbanksystemen und visualisiert sie einfach und ansprechend über den Desktop oder interaktiv im Web. # 1 | 2017

11


Predictive Analytics

Wissen, was morgen ankommt Bei einer Suchanfrage über Google passiert es. Beim Shopping über Amazon passiert es. Und auch im Facebook Newsfeed läuft es uns über den Weg: Predictive Analytics. Jeder, der schon einmal über Google etwas gesucht oder auf Amazon bestellt hat, ist mit Predictive Analytics in Berührung gekommen. Auch wenn das Konzept gar nicht so neu ist, klingt Predictive Analytics trotzdem neuartig. Und warum jetzt? Weil immer mehr Unternehmen – und nicht nur Amazon und Google – etwas aus ihren Daten machen können. Die Chancen sind riesig, und moderne Technologien machen es möglich. Daher taucht Predictive Analytics nun auf dem Radar vieler Unternehmen auf.

12

Optimal | Kundenmagazin der Agentur kernpunkt


Daten sind überall vorhanden. Auf Unternehmensseite ist das große Ziel, aus diesen Daten schlau zu werden und sie zu nutzen. Entscheider möchten Informationen aus Daten gewinnen. Das ist nötig, weil Kunden maßgeschneiderte Ansprachen erwarten und Wettbewerber auch nicht schlafen. Deswegen werden Daten heutzutage in Echtzeit verarbeitet, um damit etwa Konsumverhalten zu analy-

sieren oder Optimierungspotenzial zu erkennen. Also bietet Amazon Kunden auf Grundlage entstandener Daten passende Produktvorschläge an, und Google entwickelt vorformulierte Suchanfragen für die Nutzer. Hinter solchen Vorhersagen steht ein automatisierter Algorithmus. Unternehmen, die Predictive Analytics für sich nutzen, wissen dadurch schon vor dem Kunden, was dieser als Nächstes will. Welchem Angebot wird jemand mit höchster Wahrscheinlichkeit als Nächstes zusagen? Mit Predictive Analytics wollen Verantwortliche die Zukunft verstehen und bessere Entscheidungen treffen – mithilfe von Statistik. „Predict“ aus dem Englischen bedeutet „Vorhersagen“. Und genau das soll Predictive Analytics: an ein Reporting anknüpfen und vorhersagen, was zukünftig geschehen wird und was der Kunde oder Webseitenbesucher bald suchen wird. Der bekannteste Fall erfolgreicher Vorhersage aufgrund von Daten ist bis dato wohl die amerikanische Handelskette „Target“: Einer schwangeren Frau wurden Rabatte für Babykleidung, Windeln, Nahrung etc. geschickt, bevor die eigene Familie im Klaren über die Schwangerschaft war. Und warum? Weil ein Statistiker anhand von Daten Produkte identifizierte, die – wenn eingekauft – darauf schließen lassen, dass eine Frau bald Mutter wird. Im bekannten Target-Fall war es ein Volltreffer. Das Ziel: sich bei der baldigen, neuen Mutter schon früh als Anbieter des Vertrauens zu positionieren, bevor andere Shops diese Lücke füllen. Aufgrund von Data-Mining, dem Schürfen nach Erkenntnissen in vorhandenen Daten, ist dies möglich. In Deutschland werden dazu auf ähnliche Weise unter anderem Payback oder andere Kundenkarten genutzt. Kartenbesitzer tauschen Sammelpunkte gegen Daten, Einkäufe und Verhaltensmuster. Firmen können damit vorhersagen, was der Kunde als Nächstes braucht und in welchem Bereich gezielte Rabatte und Werbung adressiert an diesen Kunden sinnvoll werden. Online können sogar Preise ganz spezifisch angepasst werden – anhand von vergangenen Käufen und Wettbewerbspreisen. Ganz nach dem Motto: Zu welchem Preis kauft der Kunde so gerade noch bei uns ein? Insgesamt entstehen sehr spezifische Profile.

Ich habe die Daten – und dann? Aus einem gigantischen Berg an Daten lässt sich natürlich nicht erkennen, was die Zukunft bringen mag. Nur weil Daten vorhanden sind, können aus ihnen nicht direkt Erkenntnisse gewonnen werden. Zunächst einmal muss geklärt werden, welche Daten sinnvoll verknüpft werden sollen und wie alles integriert werden kann. Strategie darf also auch bei Daten nicht fehlen. Bei Predictive Analytics werden aus den bestehenden, gesammelten Daten wiederkehrende Muster abgeleitet. Sie lassen darauf schließen, dass jemand mit ähnlichem Profil bald auch bestimmte Schritte gehen wird. Anhand von Daten werden Modelle und Prognosen erschaffen. Dazu dient zum Beispiel Clustering, also segmentieren und Gruppen erkennen, oder aber auch das Bilden von Assoziationen: Sind bestimmte Ereignisse auch mit anderen Ereignissen verknüpft? So können sich Wenn-DannRegeln aufbauen. Konkret können durch Predictive Analytics beispielsweise Schritte wie eine Kündigung vorhergesagt werden oder eben, dass jemand Mutter wird. Nicht nur Konsumaussagen Predictive Analytics kann dabei nicht nur auf Konsumentenverhalten angewendet werden. Unternehmen möchten auch intern Risiken und Bedarf vorhersagen können. Um zu Einsichten zu gelangen, werden vorhandene Daten aus Systemen wir ERP, CRM oder auch HR vereint. Maschinendaten können so beispielsweise auf eine nötige Wartung hinweisen, oder es kann vorhergesehen werden, wann es Engpässe bei den Arbeitskapazitäten gibt, da eine Urlaubsphase bevorsteht. Insgesamt sind subjektive BauchgefühlAnalysen wie beim klassischen Reporting mit diesen Möglichkeiten vorbei. Predictive-Analytics-Modelle und -Systeme können vollautomatisch und standardisiert funktionieren – wenn sie richtig eingerichtet wurden. Eine nötige Voraussetzung beim Einrichten sind dazu nutzerfreundliche Visualisierungstools, die die Daten für Anwender anschaulich darstellen, sodass sie verstanden werden – auch von nicht IT-lern. # 1 | 2017

13


PROJEKTLEITER:

A

B

kernpunkt und das Data Warehouse

MIT DATEN ARBEITEN Was früher einmal in mehr als fünf Systemen und noch viel mehr Excel-Tabellen gesammelt und nicht immer verstanden wurde – vor allem nicht verglichen werden konnte –, kann heute unter einem Dach, dem Data Warehouse, beobachtet werden. Das verändert die Sicht auf Daten. Um das Data Warehouse bei kernpunkt zu verstehen, muss zunächst einmal geklärt werden, welche Daten überhaupt entstehen und verwendet werden können. Was kann alles in Nutzen verwandelt werden? Und die Antwort ist: fast alle entstehenden

14

Optimal | Kundenmagazin der Agentur kernpunkt

C

D

E

Daten. In jedem Unternehmen gibt es einen riesigen Topf an Daten. In den vielen verschiedenen Arbeitsprozessen entstehen sie. Sei es bei einem Krankheitsfall und anderen Abwesenheiten wie Elternurlaub, bei Projektdaten wie Eintrittswahrscheinlichkeit, der Zusammenarbeit und den gebuchten Zeiten durch Mitarbeiter oder auch beim Planen eines Angebots. Leider befinden sich diese Daten in unzähligen Spalten und Zeilen in Tabellen. Aus diesen unterschiedlichen Datenbergen werden nur wenige schlau. Um zu einem hilfreichen Ergebnis zu gelangen, vergeht viel wertvolle Zeit. Je länger es dauert, aus Daten Nutzen zu ziehen, desto mehr verlieren diese Daten auch an Wert. Damit Daten wirklich genutzt werden können, müssen sie zum einen einfach zu erheben und zu finden sein und zum anderen auch verknüpft und visualisiert werden. Dies geschieht automatisiert in einem Data Warehouse. Wie verwendet kernpunkt die Daten? Man kann sich vorstellen, dass die verschiedensten Daten alle ihre eigene Form haben. Wie Währungen. Ohne einen Umrechnungskurs sind sie schwer zu vergleichen. In einem Data Warehouse werden Daten „umgerechnet“, damit sie verwendet und verglichen werden können. Das Zusammenführen verschiedener Datenquellen schafft so viele Möglichkeiten.

F


GEWERKNAME Art Direktion Backend Entwicklung Frontend Entwicklung Konzeption Redaktion G

H

I

J

Ein paar Beispiele: Durch das Data Warehouse kann innerhalb von 15 Minuten ein vollständiger, kompletter Abwesenheitskalender generiert werden. Projekte können so in Abhängigkeit von Abwesenheiten geplant werden. Oder: Wir sehen ganz genau, welcher Projektleiter welche Gewerke am häufigsten beansprucht und bucht. Steht ein neues Projekt an, können Auslastungen und Bedarf früh erkannt werden.

Das Bündeln von Daten ermöglicht es, viele neue Fragestellungen zu beantworten: • Was kostet mich ein Krankheitsfall? • In welchen Einheiten buchen meine Mitarbeiter ihre Zeit? • Wenn alle geplanten Projekte mit einer Wahrscheinlich keit von 70 % eintreffen, kann ich das mit meinem Pool an Mitarbeitern bewerkstelligen? • Welche Chancen realisieren sich?

K

Also: Daten nutzbar zu machen, lohnt sich. Es können nicht nur Antworten auf bestehende Fragen gefunden werden, sondern auch ganz neue Fragen gestellt – und gelöst werden. Das gibt eine ganz neue Sicherheit, wenn es um Entscheidungen und Risiken geht. Wer sich jetzt fragt, wie man denn die ganzen Daten findet, bekommt eine ganz plausible Erklärung: Die anfallenden Prozesse in einem Unternehmen werden abgegangen. Und zwar alle. Und es wird sich zeigen: Bei jedem Prozess finden sich Daten. Entstehen einmal keine Daten, geht vermutlich etwas schief. Die Daten, die bei Prozessen entstehen, etwa in JIRA, Salesforce oder dem HR Tool, müssen dann über Schnittstellen in das Data Warehouse eingehen. Dadurch, dass sie allesamt angeglichen werden – auf einen Nenner gebracht werden –, können sie auch verglichen und verwendet werden. Ein Data Warehouse hinterlässt somit nur eine Sicht auf viele unterschiedliche Datensätze. Die ebenso notwendige Visualisierung ermöglicht dazu ein einheitliches Verständnis der Daten über alle Abteilungen hinweg. Am Ende profitieren nicht nur technische Experten und Big-Data-Spezialisten, sondern vor allem auch Kunden und alle anderen Mitarbeiter in der Firma.

# 1 | 2017

15


Gib mir meine Daten! Was wissen Google und Facebook?

Jeden einzelnen Tag geben wir sehr viel über uns preis. Freiwillig verwenden wir Dienste, die uns kontinuierlich News, Bilder, Videos oder sonstige Informationen anzeigen. Facebook dient hier als beispielhafte Plattform unter vielen. Durch unsere Likes und durch die Verweildauer auf bestimmten Posts oder unseren Abonnements von bestimmten Seiten verraten wir einiges über uns. Freiwillig, ja – aber doch ist uns oft nicht klar, was die vielen einzelnen Klicks im großen Ganzen über uns sagen. Was auch immer wir in sozialen Kanälen suchen – jeder Schritt ist aufgezeichnet.

Eigentlich ist jedem bewusst, dass Daten aufgezeichnet werden. Doch was genau gespeichert wird, was die Daten aussagen und wie sie verwendet werden, bleibt oftmals im Unklaren. Aufgrund komplizierter Prozesse und Anfragemöglichkeiten machen sich nur wenige Nutzer die Mühe, mehr über die Daten zu erfahren. Meister im Datensammeln – auch aufgrund der hohen Nutzeranzahl – sind gewiss Facebook und Google. Doch die Firmen sind nicht nur Meister im Datensammeln, sie sind auch Meister im Nutzer-Verstehen, denn Datenschutz wird ein immer populäreres Thema. Daher geben sich Facebook und auch Google durchaus transparent. Mit wenigen Klicks kann jeder Nutzer schnell anfordern: „Gib mir meine Daten“.

Was weiß Facebook? Es entsteht ein großes Zip-Archiv, das Aufschluss darüber gibt, was all die Jahre auf Facebook veranstaltet wurde. Einige Daten in der angeforderten Kopie sind nicht überraschend und auch so über das Aktivitätenprotokoll zu finden. Schließlich sollte sich jeder darüber bewusst sein, was selbst veröffentlicht wurde. Doch was findet sich an „versteckten“, nicht so offensichtlichen Informationen? Die Liste ist tatsächlich sehr lang. Ein paar Beispiele:

Bei Facebook gibt es über den eigenen Account unter Einstellungen die Möglichkeit, eine Kopie der eigenen Facebook-Daten herunterzuladen. Ebenso ermöglicht es Google seinen Nutzern, über myaccount.google.com und myactivity.google.com – und das schön visuell und anschaulich – einzusehen, welche Daten gespeichert sind. Auch hier kann ein Archiv erstellt und heruntergeladen werden.

• Alle aktiven Sitzungen einschließlich Datum, Uhrzeit, Gerät, IP-Adresse, Cookies und Browserinformationen

16

Optimal | Kundenmagazin der Agentur kernpunkt

• Hinweise zu Apps oder Anwendungsverknüpfungen, die Zugriff auf einige Facebook-Daten haben • Foto-Metadaten

• Klicks auf Werbeanzeigen mit Datum, Uhrzeit und Titel angeklickter Werbeanzeigen (begrenzte Aufbewahrungsdauer) • Eine Liste der Themen, bei denen hinsichtlich angegebener Vorlieben, Interessen und sonstigen Daten in der Chronik auf


einen selbst verwiesen wird • Gesichtserkennungsdaten: eine eindeutige Nummer, die auf dem Vergleich von Fotos basiert, auf denen jemand markiert wurde. Damit werden Markierungsvorschläge angeboten. Wer noch genauer wissen möchte, was Facebook denn so weiß und vor allem wie Facebook-Aktivitäten interpretiert werden, kann beispielsweise Browser Extensions wie Data Selfie installieren. In seinem „digital footprint“ erfährt man so anhand der besuchten Seiten und Likes, was dies zum Beispiel über seine religiöse Anschauung oder etwa über seine „Big 5 Personality Traits“, die fünf Persönlichkeitsdimensionen, verrät:

Screenshot aus „Data Selfie“

jemand wo ist und wie er sich fortbewegt hat. Dies kann nicht nur über ein Archiv angefordert werden, sondern auch in der persönlichen „Zeitachse“ eingesehen werden – sofern der Standortverlauf nicht deaktiviert wurde. In der Zeitachse finden sich Daten für jeden einzelnen Tag.

„Dass ich mit dem Fahrrad zu kernpunkt, danach zum Sport und dann nach Hause gefahren bin, weiß Google. Auch, dass ich abends noch zu Fuß zu Aldi gelaufen bin. Und das, weil ich mein Handy dabei hatte!“

Mehr Transparenz Ja, viele Daten werden gesammelt. Doch am Ende helfen Daten vor allem auch uns: Dienste werden für den Nutzer optimiert. Um aber dauerhaft erfolgreich zu bleiben, müssen Unternehmen die Bedenken ihrer Konsumenten ernst nehmen, denn Nutzer möchten an einen Datenschutz glauben und wünschen sich Transparenz von mehr Firmen oder Applikationen, die im tagtäglichen Leben verwendet werden. Nutzen und Verwendung sollten einleuchtend sein. Daten werden nicht verschwinden, denn auf die Dienste verzichten wollen oder können wir nicht immer. Die Datennutzung aber zu verstehen und zu akzeptieren, kann vielleicht erreicht werden.

Was weiß Google? Dadurch, dass viele mit dem Smartphone in Google angemeldet sind, ob über Gmail, Google Kalender oder auch weil Google Fotos oder Maps verwendet werden, entstehen viele Daten. Google speichert nicht nur Suchanfragen und kann so durch Lerneffekte bessere Suchergebnisse liefern, sondern speichert beispielsweise auch markierte Orte in Maps oder den gesamten Standortverlauf. Google kann so beispielsweise sehr genau bestimmen, wann # 1 | 2017

17


Daten sind Macht Und mit Open Data hat jeder Zugang

Daten sind Macht. Sie helfen Unternehmen, nachhaltig und wettbewerbsfähig zu wirtschaften. Sie bedeuten Vorhersage und Einsicht, sodass Firmen-Risiken besser eingeschätzt werden können. Damit bedeuten sie auch Geld. Was aber häufig bei Daten vergessen wird: Daten müssen nicht nur Macht im Geldkontext bedeuten. Sie können zu bedeutsamen Stützen werden, die Fortschritt und Effizienz bedeuten. Öffentlich verfügbare Daten spielen hier eine große Rolle, denn nicht nur im Kontext eines Unternehmens können mit Daten ganz neue Fragen gestellt und Antworten gefunden werden. Daten helfen bei Lösungen, die auch im öffentlichen Sektor wegweisende Entscheidungen beeinflussen können.

18

Optimal | Kundenmagazin der Agentur kernpunkt


Potenziale von offenen Daten Daten sind nicht nur ein Privileg großer Datenfirmen und Unternehmen. Sie sind überall vorhanden und können für interessante Einsichten in einer Gesellschaft sorgen. Heute gibt es daher immer mehr Open-Data-Projekte. Das heißt, öffentliche Daten sind frei verfügbar und werden zentral bereitgestellt. Durch Open-Data-Projekte im öffentlichen Sektor wie govdata.de, open.nrw oder auch europeandataportal. eu ist der Zugang zu Daten also einfacher als vielleicht gedacht. Solche Vorgehen laden ein jedes Individuum ein, an großen Veränderungen teilzuhaben und selbst den Anstoß zu liefern. Endnutzer werden mit ins Boot geholt, und Projekte entstehen in der Vielzahl. Open Data erlaubt es Menschen, egal aus welchem Kontext heraus oder mit welchem Hintergrundwissen, mit einer Vielzahl von Daten zu arbeiten, zu experimentieren und Anwendungen und Visualisierungen zu bauen. Denn auch bei der Datenverarbeitung gilt: Vier Augen sehen mehr als zwei. Erst bei einem freien und schnellen Zugang zu öffentlichen Informationen entstehen Innovationsprozesse.

Dann werden Fragen gestellt wie: • Wie sieht die Mobilität in unserer Stadt aus? • Wie kann unsere Gemeinde in Zukunft mit Energie versorgt werden? • Wie können wir die Informatio nen von Feinstaubsensoren nutzen?

Damit offene Datensätze in eigene Projekte integriert werden können, müssen sie technisch sowie auch legal offen sein. Das heißt, dass Computer in der Lage sein müssen, sie zu lesen und zu verarbeiten. Es müssen Formate angeboten werden, die von vielen Nutzern verwendet werden können. Nur Excel reicht bei Weitem nicht aus – denn nicht jeder Nutzer verwendet Microsoft Office. Um in vielen Projekten – ob privat oder im öffentlichen Sektor – Verwendung zu finden, sollten Daten deswegen mittels „application programming

interfaces“, also Programmierschnittstellen – kurz APIs – angeboten werden. So können sie von Maschinen gelesen, geteilt und integriert werden, um aus ihnen Wert zu schöpfen. Außerdem müssen Daten unter einer Lizenz veröffentlicht werden, in der sie kommerziell und auch nicht-kommerziell verwendet werden dürfen. Ein Beispiel: Herausforderungen im Stadtverkehr Städte wachsen und stehen vor großen Herausforderungen, was den Verkehr und die Infrastruktur betrifft. Offene Daten können helfen, diese Herausforderung in Zukunft anzugehen. • Uber, das amerikanische Fortbewegungs-Start-Up, lädt etwa mit Uber Movement ein: „Let´s find smarter ways foward.“ Das große Ziel: unsere Städte und deren Infrastruktur effizienter zu gestalten. Anhand von Fortbewegungsund Standortdaten der fahrenden Autos, wie und wo sie fahren, wie lange sie für bestimmte Strecken brauchen und welche Blockaden und Knoten auftreten, sollen Städte demnächst einmal besser geplant werden können. Daten sollen hier zu klugen Entscheidungen führen, die Menschen helfen. Infrastructure Partnerships Australia und Uber arbeiten bereits in vier großen australischen Städten zusammen, um „urban planning“ zu verbessern. Denn Australien investiert Jahr für Jahr Milliarden in Transport und Infrastruktur. Mithilfe der Uber-Daten kann nun verstanden werden, wie das System wirklich funktioniert und welche Maßnahmen helfen können, die Infrastruktur zu optimieren. • Für die Stadt Dresden ist durch offene Daten „Freie Parkplätze Dresden“ entstanden. Daten über freie Parkplätze, die auf einer Webseite bereitgestellt wurden, werden in einer Datenbank durch die Open Data Aktivisten vom OKLab Dresden gespeichert, über eine API bereitgestellt und analysiert und grafisch aufbereitet. So können Interessierte über eine Karte mit der aktuellen Belegung schon auf der Autobahn und von zu Hause erfahren, ob ihr gewünschtes Parkhaus frei sein wird oder ob das Fahren mit der Bahn angebrachter ist. Zum Thema Stadtverkehr hat sich das OK Lab Berlin die Straßenvermessung vorgenommen und stellt fest: Flächen sind nicht

gerecht verteilt. Autofahrern in Berlin wird 19-mal mehr Fläche als Radfahrern eingeräumt. Solche Ergebnisse geben Anreize und Argumente für Veränderungen. Auch virtuelle Open Data funktioniert für Experimente Die Seite pplapi.com, „people API“, stellt eine virtuelle Datenbank dar, die die gesamte Weltbevölkerung abbilden soll. Das bedeutet, es gibt demografische Daten für jeden Einzelnen von uns. Virtuelle Experimente auf Basis von 7,171,922,938 eingetragenen Agenten sind daher möglich. Rein aus Interesse kann sich jeder auch ohne große Kenntnisse so zufällige Einträge aus dem Agent Space anzeigen lassen oder aber auch länderspezifisch suchen und Gruppen bilden. Da diese Simulationen ein aktives Research-Projekt sind und nicht auf echten Daten beruhen, müssen Fragen, die hier gestellt und beantwortet werden sollen, mit Vorsicht betrachtet werden.

#4,825, 522,237

#2,177, 232,793

Mehr solche Projekte in Deutschland können auf Code for Germany, codefor.de/projekte/, gefunden werden. # 1 | 2017

19


Datensicherheit

Verantwortung übernehmen Je mehr Daten in einem Unternehmen ins Spiel kommen, desto mehr Verantwortung muss ein Unternehmen auch übernehmen. Big Data bedeutet Chancen, aber auch Risiken. Aktuell sind die Nachrichten voll von Cloud-Computing und Sicherheit, News über Cyberangriffe, Daten-Leaks oder Datendiebstahl. Auch die neue EU-Datenschutzrichtlinie bringt das Thema ins Rollen und schafft Neuerungen, die in Zukunft auf Unternehmen zukommen.

Nicht selten gibt es aber die Vorstellung, dass IT- und Datensicherheit nur Sache der Provider, staatlicher Behörden oder auch nur der Endnutzer sei. Zuständigkeiten sind in Unternehmen nicht ganz geklärt und Datenschutzprobleme sind leider auch auf Unwissenheit und Fahrlässigkeit von Mitarbeitern zurückzuführen. So verwundert es nicht, dass mehr als die Hälfte aller Deutschen einen Missbrauch ihrer 20

Daten durch Unternehmen fürchtet, wie eine BCG-Verbraucherstudie „ Big Data & Trust“ von November 2016 herausfindet. Unternehmen müssen daher unbedingt das Vertrauen in Datensicherheit aufbauen und nachweislich einhalten – sonst drohen nicht nur starke Umsatzeinbußen. Sicherheit in der Tiefe Dazu zählt zum einen, unter der Oberflä-

Optimal | Kundenmagazin der Agentur kernpunkt

che für sichere Strukturen, Software und Systeme zu sorgen. Und das besser früh als spät, denn ob Unternehmen oder Privatperson, wir alle sind immer mehr mit dem Internet verbunden. Mobile Geräte, das Internet der Dinge (IoT) und auch CloudLösungen für Datenaustausch, etwa das Bereitstellen von Kundeninformationen, beschleunigen den Prozess. Dabei sollten Unternehmen sich vor Augen führen, dass


bei fortschreitenden Technologien ebenso die Angriffsflächen wachsen und Angreifersysteme selbst immer intelligenter werden. Die McAfee Labs "Bedrohungsprognosen für 2017" sehen daher Bedrohungen gerade auch für Cloud und IoT. Darunter: „Angriffe werden sich zuerst auf den Diebstahl von Anmeldeinformationen konzentrieren.“ Anbieter und Unternehmen müssen reagieren und proaktiv handeln, soweit dies möglich ist. Trotzdem bleiben Schwachstellen oft unentdeckt. Damit sind nicht nur Daten von Nutzern und Kunden in Gefahr, sondern auch Industriespionage ist ein immer häufiger auftretendes Thema, das nicht nur die „großen anderen“ Unternehmen betrifft. IT-Sicherheitsrichtlinien und eine geschützte Sicherheitsinfrastruktur sind daher wichtig. Ein kleiner Schritt für Unternehmen kann ein großer für Datenschutz bedeuten: Datensicherheit kann bereits bei einem sinnvollen Passwortschutz anfangen. Dazu zählen auch mehrstufige Authentifizierungen, die inzwischen von vielen Anbietern ermöglicht werden. Transparenz und Aufklärung Aber IT-Sicherheit unter der Haube ist nicht der entscheidendste Faktor, um Vertrauen aufzubauen. Kunden und Nutzer erwarten offene Informationen und Transparenz, was die Verwendung der Daten in Unternehmen betrifft. Ist eine solche Transparenz und Aufklärung nicht gewährleistet, drohen nachweislich Umsatzeinbußen. Auch Bußgelder können ein Unternehmen treffen, da mit der neuen EU-Datenschutz-Grundverordnung, die im Mai 2018 in Kraft treten soll und auch das deutsche Recht beeinflussen wird, umfassende Informationen über die Datenverarbeitung Pflicht sind. Personenbezogene Daten müssen demnach beispielsweise „auf rechtmäßige Weise, nach Treu und Glauben und in einer für die betroffene Person nachvollziehbaren Weise verarbeitet werden“ (Kapitel 2, Art. 5 DSGVO). Dazu besteht Informationspflicht über die erhobenen Daten sowie auch über deren Verwendungszweck. Unternehmen sollten sich umfassend informieren und datenschutzrechtlich beraten lassen, um Maßnahmen bis dahin identifizieren zu

können. Auf eigene Faust können Anforderungen unter folgender Adresse recherchiert werden: https://dsgvo-gesetz.de/. Anpassungen der EU-Grundverordnung auf nationaler Ebene werden aber noch erwartet. Trotzdem: Nicht nur aufgrund einer neuen Datenschutz-Grundlage – Kunden und Nutzer sollten nutzerfreundlich informiert werden, wenn ein Unternehmen diese Kunden halten will. Nur durch die bereits erwartete Transparenz, wenn Vorteile der Datenerhebung erkennbar sind, Vertrauen aufgebaut ist und keine bösen Überraschungen warten, dann steigt die Akzeptanz von Datennutzung auch bei Kunden. Ob Datenschutz-Grundlage oder nicht – Unternehmen sollten informieren! • Wer ist verantwortlich? • Zu welchem Zweck werden Daten erhoben? • Welche Daten werden erhoben?

NICHT-EXPERTEN

• Wer sind Empfänger der Daten? • Wie lange werden Daten aufbewahrt? • Wie können Daten von Betroffe nen angepasst oder gegebenen- falls gelöscht werden? Verantwortung nicht nur auf Unternehmensseite Allgemein muss das Thema Datenschutz und Sicherheit prominenter gemacht werden. Tipps für Sicherheit finden sich online genüge, aber was hilft wirklich? Unternehmen könnten auch ihre Kunden darauf hinweisen, welche Maßnahmen ergriffen werden sollten. Anschaulich: In dem Google Research Paper ‘»... no one can hack my mind«: Comparing Expert and Non-Expert Security Practices’ erarbeiten die Verantwortlichen Ion, Reeder und Consolvo anschaulich, wie sich die Online-Sicherheitspraktiken von Nicht-Experten und Experten deutlich unterscheiden:

EXPERTEN

1. NUTZEN ANTIVIRUS SOFTWARE

1. INSTALLIEREN SOFTWARE UPDATES

2. NUTZEN STARKE PASSWÖRTER

2. NUTZEN EINZIGARTIGE PASSWÖRTER

3. ÄNDERN IHRE PASSWÖRTER REGELMÄSSIG

3. VERWENDEN 2-FAKTORAUTHENTIFIZIERUNGEN

4. BESUCHEN NUR IHNEN BEKANNTE WEBSEITEN

4. NUTZEN STARKE PASSWÖRTER

5. GEBEN KEINE PERSÖNLICHEN INFORMATIONEN PREIS

5. NUTZEN EINEN PASSWORT-MANAGER

Unser Artikel entspricht keiner Rechtsberatung. # 1 | 2017

21


Industrial Analytics

Maschinen passen auf sich auf

22

Optimal | Kundenmagazin der Agentur kernpunkt


Stellen Sie sich einmal folgendes Szenario vor: Auf dem Weg zu einem Kundentermin gehen Sie gerade noch einmal Ihre Präsentation durch. Ihr Firmenwagen legt die mehrere Hundert Kilometer lange Wegstrecke spielend leicht von allein zurück. Auf halbem Weg werden Ihre Vorbereitungen auf dem Bordmonitor für einen kurzen Hinweis unterbrochen: Das System informiert Sie darüber, dass ein Verschleißteil des Motors ausgetauscht werden muss. Zu diesem Zweck hat es bereits einen vorläufigen Termin in einer Vertragswerkstatt nahe Ihrem Zielort vereinbart, den Sie bestätigen und gleich nach Ihrem Kundentermin wahrnehmen werden. Am Nachmittag kommen Sie nach erfolgter Reparatur fast ohne Verspätung wieder in Ihrem Büro an.

Zukunftsmusik? Gar nicht so sehr, wie Sie vielleicht glauben. Tatsächlich ist die präventive Wartung des Fahrzeugs in diesem Gedankenspiel bereits am nächsten an der Wirklichkeit. Der zugehörige Fachbegriff lautet Predictive Maintenance und ist als solcher eine Teildisziplin der Industrial Analytics. Nicht wenige betrachten Industrial Analytics als die nächste große Entwicklungsstufe von Big Data im Kontext der vierten industriellen Revolution. Recht naheliegend geht es hierbei um das Sammeln, Analysieren und Nutzen von Daten, die in industriellen Prozessen entstehen. Ob Sensordaten wie Temperatur, Stromverbrauch, Druck und Luftfeuchtigkeit oder Wartungsberichte, Log- und sogar Wetterdaten: Heutige Produktionsumgebungen und die darin befindlichen Maschinen sammeln bereits sehr genaue Informationen über ihren Zustand und ihr Umfeld. Das große Potenzial der Industrial Analytics basiert zum einen auf dem Internet of Things, also der weitreichenden Vernetzung von Geräten, vorzugsweise in der unternehmenseigenen Cloud, und zum anderen auf Machine Learning: Mithilfe verbesserter Methoden in der Analyse und Interpretation gesammelter Daten erkennen künstliche Systeme Muster und leiten aus dem gewonnenen Wissen passende Maßnahmen ab. Grundsätzlich ist die Idee auf jedes Unternehmen anwendbar, das physische Produkte herstellt. Kombiniere, kombiniere Genau genommen ist auch die traditionelle Wartungsweise von Automobilen, nach einer bestimmten Zeit oder einer bestimmten Laufleistung einen Hinweis zu geben, datengesteuert. Nur wurden bisher eben lediglich diese zwei Daten zur Wartungssteuerung herangezogen. Genau an dieser Stelle setzt Industrial Analytics an: Prinzipiell werden alle in einem produzierenden Gewerbe anfallenden Daten in Betracht gezogen, um ein Problem zu finden, zu erklären und im besten Fall bereits zu lösen, bevor es eingetreten ist. In den meisten Fällen sind die dafür benötigten Daten schon lange da. Doch erst durch die kluge Kombination aus all diesen Daten wird die Technik smart – etwa, um Vorhersagen über Wartung und Instandhaltung von Maschinen zu treffen. Diese erzeugen über zahlreiche Sensoren in Echtzeit eine Vielzahl von Daten, die sie per Anbindung an die Cloud an ein zentrales System übermitteln. Dort kann der Status einer Maschine dann anhand der Temperatur, der Drehzahl oder anderer vergleichbarer Daten

automatisch gemessen werden. Schleicht sich ein Fehler ein, wird dieser über definierte Wenn-Dann-Beziehungen frühzeitig gefunden, und proaktives Handeln ist möglich. So wird die traditionelle Wartung „auf Verdacht“ zu festen Zeitpunkten durch eine gezielte Instandhaltung genau dann, wenn sie laut Datenanalyse notwendig wird, abgelöst. Vorzeigbare Meilensteine Es ergeben sich nicht nur riesige Einsparpotenziale, sondern auch Möglichkeiten zur Erhöhung der Produktqualität, der Kundenzufriedenheit und der Innovation. Bereits erfolgreich durchgeführte Projekte können sich sehen lassen: zum Beispiel eine WindparkManagement-Lösung, die die Echtzeitanalyse von Fehlermeldungen ermöglicht und die Kapazität des Kontrollzentrums im Hinblick auf die Zahl der betreuten Windräder verdoppelt. Oder ein Analyse-Tool eines Automobilherstellers, das die Materialkosten und Verkaufszahlen der möglichen Produktkonfigurationen auswertet und auf dieser Basis Empfehlungen für das zukünftige Angebot abgibt. So lassen sich unter den unzähligen Optionen genau diejenigen ausfindig machen, die sich nicht rechnen. Experten sind gefragt Die Branche scheint sich der neuen Möglichkeiten bewusst zu sein. Einer Umfrage der Digital Analytics Association e.V. Germany zufolge glauben mehr als zwei Drittel der befragten Entscheidungsträger, dass Industrial Analytics bis 2020 zu einem entscheidenden Thema werden wird. Dabei liegt die größte Herausforderung nicht in der Analyse selbst, sondern auf dem Weg dorthin. Es gilt nicht nur, die Daten im großen Rahmen zu erheben, sondern auch praktikabel zu speichern, aufzubereiten und vor allem auszuwählen, um nur aus den wirklich relevanten Informationen die richtigen Schlüsse zu ziehen. Entsprechende Aufwände ergeben sich in der Software, die derzeit vorrangig von IBM, Microsoft, SAP und HPE stammt, und der anwendungsspezifischen Entwicklung. Die wohl größten Schwierigkeiten aber bestehen derzeit noch darin, das für Industrial Analytics benötigte Know-how zu erlangen. Nur die wenigsten Unternehmen verfügen bereits über das analytische Fachwissen, um entsprechende Projekte nach vorne zu bringen und verschiedenste Daten in unterschiedlichsten Formaten und Netzen aus diversen Quellen sinnvoll zu vereinen. # 1 | 2017

23


www.kernpunkt.de


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.