Schlagwort-Archiv: Big Data

Big Data umfasst Methoden und Technologien zur Analyse großer Datenmengen.

CRM-Daten Bereinigung: Unterstützung der Migration zu Microsoft Dynamics CRM®

CRM-Migration als Erfolgsfaktor im Vertrieb

Wie wichtig aktuelle, leicht nutzbare und hochwertige Kundendaten in einer zentralen Datenbasis im Vertrieb sind, hat ein innovativer Industriekonzern früh erkannt. Bereits in den 1980er Jahren entwickelte er ein eigenes CRM-System zur Unterstützung der Vertriebsprozesse.

Um in Zeiten komplexer werdender Anforderungen und neuer technischer Möglichkeiten die Arbeit der in die Vertriebsprozesse involvierten Fachabteilungen weiter zu erleichtern und zu verbessern, entschied sich der Konzern zu einer Migration zu Microsoft CRM©.

In der Analyse vor der Migration zeigte sich schnell, dass die schlechte Datenqualität, die vor allem aus den limitierten Möglichkeiten des Legacy-Systems herrührte eine 1:1 Migration der Daten unmöglich machte. Ein wesentlicher Faktor einer erfolgreichen Migration, stellt die Nutzerakzeptanz dar. Das neue System zeigte schonungslos die Schwächen des alten Systems wie limitierte Feldgrößen, verschiedene Zeichensätze, erzwungene Großschreibung, oder unklare Bedeutung der Felder auf. Die Datenqualität stand im Widerspruch zu den Möglichkeiten, die das neue System bot. Neben der Nutzerakzeptanz, spielt gerade im Vertrieb die Datenqualität für Prozesse wie Kundenansprache oder Logistik eine nicht zu unterschätzende Rolle.

Die Verbesserung der Datenqualität durch Bereinigung, Strukturierung und Anreicherung der Kundendaten kristallisierte sich als ein wesentlicher Aspekt der System-Migration heraus.

Die Lösung: CRM Migration auf der Basis bereinigter Daten

Eine manuellen Datenbereinigung war in Anbetracht des umfangreichen Datenbestand mit tausenden Kundendaten aus über 40 Ländern nicht praktikabel. eoda wurde angefragt eine schnelle und zielführende Verbesserung der Datenqualität mittels einer automatisierten Bereinigung und Strukturierung der Daten durchzuführen.

Als Spezialist für die Verbesserung der Datenqualität auch in großen Datenbestände passte eoda einige der Applikationen der hauseigenen Serviceplattform „Results as a Service“ auf die speziellen Anforderungen beim Kunden an und führte das Data Cleansing mit intelligenten Algorithmen durch.

Datenanalyse und Mustererkennung

Das Data Cleansing umfasst neben der Analyse der Daten auch eine Mustererkennung. „Die Mustererkennung macht es möglich selbst in unstrukturierten Daten, mit unterschiedlichen Fehlerbildern anhand von bestimmten Merkmalen automatisiert die entsprechenden Informationen zu identifizieren“ erklärt Oliver Bracht, CEO und zuständiger Projektleiter bei eoda, das Vorgehen. Die intelligente Mustererkennung erkennt typische Muster wie Städtenamen, Telefonnummern und andere länderspezifische Merkmale der Kontakte.

Data Cleansing zur Unterstützung einer CRM-Migration

Data Cleansing zur Unterstützung einer CRM-Migration

Weiterlesen

eoda Results as a Service – Plattform für analytische Applikationen

Mit Results as a Service bietet die eoda GmbH einen Lösungsverbund aus analytischen Applikationen auf einer skalierbaren Plattform. Die Anwendungen lösen verschiedene analytische Problemstellungen aus Bereichen wie Reporting, Data Mining oder Predictive Analytics – auch für Big Data. Zum Beispiel lassen sich mit „associateR“ Assoziationsanalysen durchführen, wie sie in der Warenkorbanalyse angewendet werden. Der „optimizeR“, löst Optimierungsprobleme die typischerweise im Kampagnenmanagement vorkommen. Eine andere Anwendung, „fuzzychekC“, findet ähnliche Einträge in Listen wie in Adressdatenbanken mit dem Ziel die Datenqualität durch die Vermeidung von Duplikaten zu verbessern. Reporting und Social Media Analysen sind andere Anwendungsgebiete. Weitere Apps befinden sich in der Entwicklung. Die Plattform bringt eine Reihe von Funktionen mit, die den Betrieb und die Administration vereinfachen wie die LDAP Integration, ein Wiki, APIs oder Schnittstellen zu Datenquellen.

"Results as a Service" von eoda

“Results as a Service” von eoda

Maßgeschneiderte Anwendungen und geringer Administrationsaufwand

Results as a Service ist vor allem ein Angebot für Fachabteilungen, die schnell eine analytische Anwendung zum Laufen bekommen möchten. Die Plattform kann auf einem Cloud Dienst oder auf einer eigenen Infrastruktur betrieben werden. Das modulare Konzept erlaubt es, die Anwendungen schnell bedarfsgerecht anzupassen und zu verbinden, so dass ganzheitliche Lösungen entstehen.

Weiterlesen

Be data driven: Der Unterschied zwischen Kreisklasse und Weltklasse?

Wenn am 12. Juni in Sao Paulo das erste Spiel der Fußballweltmeisterschaft 2014 angepfiffen wird, schaut die Welt gebannt für einen Monat nach Brasilien. Fasziniert von einem Sport der trotz seiner langen Tradition seine Einfachheit bewahrt hat. Diese Schlichtheit ermöglicht es, dass Menschen auf der ganzen Welt, unabhängig von Alter oder Talent, dem runden Leder nachjagen können. Doch mit steigender Professionalität beschränkt sich die Einfachheit zunehmend auf die Grundzüge des Spiels. Abseits des Platzes werden die Unterschiede zwischen Freizeitkickern und Vollprofis immer größer.

Datenanalyse als Erfolgsfaktor im Profifußball

Wo im Amateurbereich abseits von Punkten und Toren kaum belegbare Leistungskennzahlen existieren setzt der Profisport zunehmend auf die Macht der Zahlen. Laufwege, Zweikämpfe, Torschüsse – der Fußball wird zu einem Big Data Phänomen. Beim Streben nach dem maximalen Erfolg setzen die Trainer auf die Erkenntnisse aus den Daten. Die tägliche Trainingsarbeit basiert auf detaillierten Leistungsdiagnostiken und der genauen Kenntnis über Stärken und Schwächen der Spieler.  Der Deutsche Fußball Bund setzt beispielsweise für die Weltmeisterschaft in Brasilien auf Spielanalysen in Echtzeit und die präzise Erfassung von Laufwegen und Pässen für jeden Spieler.

Heatmap zu den Laufwegen eines Profifußballers (Quelle: www.abseits.at)

Heatmap zu den Laufwegen eines Profifußballers (Quelle: abseits.at)

Dank der analytischen Fähigkeiten des Physikers Stephen Hawking kennen sogar die wenig erfolgsverwöhnten Engländer ihre Erfolgsformel für die Fußballweltmeisterschaft 2014.

Weiterlesen

Der Data Scientist als das Bindeglied zwischen Big Data und Big Business

Data Scientist ist “The Sexiest Job of the 21st Century”. So sieht es der Google Chefökonom Hal Varian sicher nicht ganz uneigennützig – lebt doch Google vor allem von den vielfältigen Geschäftsmodellen, die auf Daten und Analysen begründet sind. Er ist mit dieser Meinung allerdings zur Zeit nicht ganz alleine. Viele Unternehmen sind gerade auf der Suche nach “dem Data Scientist”. Was ist jedoch eigentlich ein Data Scientist und was macht den Job so sexy und attraktiv?

„Big Data“ als Triebfeder der Datenanalysten

Wäre ein Datenanalyst mit einer Leidenschaft für Daten und das Aufdecken von Mustern und Zusammenhängen vor einigen Jahren noch als spleenig und nerdig bezeichnet worden, wird er heute – in Zeiten von “Big Data” – in einem ganz anderen Licht gesehen. Data Scientists werden heute als Schatzsucher, Goldschürfer, Forensiker oder Pionier bezeichnet. Während Sie in der Vergangenheit unterstützend in bestimmten Fachabteilungen oft eher im Verborgenen ihren Dienst verrichteten, wird ihnen heutzutage eine führende Rolle zugeschrieben, die das Unternehmen voran bringen soll.

Data Scientist – Allrounder für eine ganzheitliche Prozessunterstützung

Die Veränderung in der Sicht auf den Datenanalysten spiegelt die Erkenntnis wider, dass Unternehmen mit Hilfe der vorhandenen Daten nicht nur die Vertriebszahlen des vergangenen Quartals analysieren können, sondern sich auch die Möglichkeit bietet, gewinnbringend in die Zukunft zu schauen.

Im Lichte von Big Data und Predictive Analytics gelingt es dem Data Scientist Optimierungspotenziale zu identifizieren und Wettbewerbsvorteile gegenüber der Konkurrenz zu generieren. Weiß das Unternehmen, wer übermorgen Kunde sein könnte und bei welchem Kunden eine besonders intensive Betreuung lohnend sein kann, kann es bisherige Branchenführer überholen oder seine Führungsposition ausbauen.

Neben den vertriebsnahen Einsatzmöglichkeiten können Data Scientist relevantes Wissen auch in weiteren Bereichen wie Predictive Maintenance, der vorausschauenden Instandhaltung von Industrieanlagen, oder im Logistikbereich, beispielsweise zur Ermittlung der effizientesten Auslieferungsrouten, generieren. Auch die klassische Marktforschung bietet genug Herausforderungen für den Data Scientist. Die Einsatzmöglichkeiten sind branchenübergreifend unbegrenzt.

Weiterlesen

Whitepaper zu Predictive Maintenance mit R

Potenziale und Möglichkeiten der freien Statistiksprache R für neue Geschäftsmodelle im Industrie 4.0 Zeitalter 

Effiziente Produktionsprozesse mit gleichbleibend hoher Qualität sind die Basis produzierender Unternehmen, um im internationalen Wettbewerb mit immer kürzeren Produktlebenszyklen und schnelleren Technologiesprüngen zu bestehen. Ausfälle und Qualitätseinbußen aufgrund defekter Anlagen schwächen die Marktposition.

Anlagenbauern bietet Industrie 4.0 hier die Grundlage für neue Geschäftsmodelle. Beispielsweise gewinnt Instandhaltung und Wartung stetig an Bedeutung und die Entwicklung von der reaktiven Reparatur zur vorausschauenden Wartung führt zu neuen Services und Produkten.

Predictive Maintenance als Instandhaltungsstrategie der Zukunft 

„Industrie 4.0 ist die Informatisierung der Industrie und Predictive Maintenance ist ein Kernnutzenaspekt, den die Daten als Ergebnis der Digitalisierung der Produktion ermöglichen“, so Heiko Miertzsch CEO, des Kasseler Datenanalysespezialisten eoda. Die Analyse von Maschinendaten und externen Daten ermöglicht es, Muster im Verhalten der Maschinen zu entdecken und zukünftige Zustände wie Ausfälle zu prognostizieren. „Das ist der Grundstein für eine höhere Planungssicherheit und eine effizientere Wartung“, erklärt Miertzsch die Möglichkeiten hochwertiger Datenanalyse für Predictive Maintenance.

Predictive Maintenance als innovatives Instandhaltungskonzept (Bild © everythingpossible / fotolia.com)

Predictive Maintenance als innovatives Instandhaltungskonzept (Bild © everythingpossible / fotolia.com)

Weiterlesen

Text Mining zur Prognose der Strompreisentwicklung

Nicht zuletzt die Energiewende sorgt bei Energieversorgern für Veränderungen und Herausforderungen. Den Anteil erneuerbarer Energien von heute 12 Prozent auf fast 40 Prozent im Jahr 2020 zu verdreifachen, ist nur eines der Ziele, die sich ein führender Energieversorger gesetzt hat.

Um Effizienzpotentiale zu heben und neue Geschäftsfelder zu erschließen setzt der Energieanbieter verstärkt auf Data Mining und Predictive Analytics. Möglichst zahlreiche und vielfältige Daten sollen analysiert werden, um die Entscheidungen im Unternehmen zielgerichtet und belastbar zu unterstützten. Konkret werden beispielsweise für den Stromhandel minutenaktuell die Meldungen der Nachrichtenagentur Reuters erfasst und einzelne Nachrichten auf ihre Relevanz für die Entwicklung der Energiepreise untersucht.

Ein integriertes System soll zukünftig die Stromhändler bei der Selektion der relevanten Nachrichten unterstützen.

Darstellung der Strompreisentwicklung

Darstellung der Strompreisentwicklung

Weiterlesen

eoda verlängert Gold Partnernerschaft mit Oracle – Fokus auf Data Mining und Predictive Analytics

Der Datenanalysespezialist eoda und das amerikanische Unternehmen Oracle verlängern ihre Partnerschaft.  Das Kasseler Unternehmen unterstützt den weltweit führenden Hersteller von Datenbanksystemen auch weiterhin als Systemintegrator. Auf Basis der hochwertigen Oracle Produkte entwickelt eoda individuell angepasste Lösungen für die Anwender mit einem Schwerpunkt auf Data Mining und Predictive Analytics. Im Fokus der Partnerschaft steht dabei die Verknüpfung der Oracle Database mit der Open Source Statistiksprache R. „R entwickelt sich zunehmend zur plattformübergreifenden Lingua franca für Datenanalysten und bietet umfassende und leistungsfähige Methoden für die Analyse und Visualisierung von Daten, Data Mining und Predictive Analytics“, erläutert Heiko Miertzsch, CEO von eoda, die Vorteile von R. eoda als erstes deutsches Mitglied der R-Foundation, die sich für die Verbreitung von R einsetzt, gilt als einer der Vorreiter für  den kommerziellen Einsatz von R im deutschsprachigen Raum.

Mit R die Oracle-Datenbanken um Verfahren zu Predictive Analytics und Data Mining erweitern

Als einer der ersten großen Softwarehersteller hat Oracle das Potenzial von R erkannt und die Integration der Statistiksprache in die Datenbanksysteme vorangetrieben. Mit Oracle Advanced Analytics erweitert Oracle die Datenbanken zu einer umfassenden Plattform für Data Mining und Predictive Analytics. Teil von Oracle Advanced Analytics ist die Komponente Oracle R Enterprise. Diese integriert die Funktionen der R-Programmiersprache und verlagert dadurch die Berechnungen in die Datenbank und ermöglicht so “In Database Analytics”.  Gerade in Zeiten von Big Data und der damit verbundenen Komplexität der Analysen stellt die Begrenzung des lokal vorhandenen Arbeitsspeichers einen entscheidenden Engpass dar. Die Verlagerung der Berechnungen in die Oracle Datenbank und die Nutzung der dort vorhandenen Speicherkapazitäten löst dieses Problem.

Weiterlesen

eoda News 2014 Nr. 1

Wir von eoda wünschen unseren Lesern ein Frohes Neues Jahr und möchten in unserem ersten Blog Beitrag dieses Jahr auf wichtige und spannende Entwicklungen rund um die Themen eoda, R und Datenanalyse aufmerksam machen und einen Ausblick auf zukünftige Aktivitäten und Ereignisse geben.

eoda erweitert die Service Plattform „Results as a Service“

associateR, signatuRe und textmineR – so lauten die Namen der neuen Anwendungen auf unserer eoda Service Plattform. Dahinter verbergen sich webbasierte Lösungen zur Warenkorbanalyse, zur automatischen Signaturerfassung und zur Analyse unstrukturierter Texte. Diese Module erweitern unser Portfolio und bieten genau wie die bereits bestehenden Anwendungen die Möglichkeit auf Basis eines skalierbaren Frameworks individuelle und hochwertige Lösungen für unsere Kunden zu schaffen. „Results as a Service“ erschließt die Potenziale von Big Data mit den Möglichkeiten von Cloud Computing und ermöglicht die Entwicklung maßgeschneiderter Apps zur Datenanalyse – für jede Datenmenge, jede Laufzeit, auf einer öffentlichen oder privaten Cloud-Plattform nach Wahl.

Unsere Case Study zur CRM Daten Konsolidierung verdeutlicht im Folgenden ein konkretes Anwendungsszenario für die „Results as a Service“-Anwendung fuzzychekC.

Case Study: CRM Daten Konsolidierung nach Unternehmensfusion

Eine Übernahme oder eine Fusion stellt einen Meilenstein in der wirtschaftlichen Entwicklung eines Unternehmens dar, der mit vielen Vorteilen verbunden sein kann. Um diese Vorteile auch zu erzielen bedarf es einer Lösung der Aufgaben, die mit einer solchen Strukturveränderung einhergehen. Die Zusammenführung der Datenbestände ist dabei von zentraler Bedeutung für das „neue“ Unternehmen, denn die Daten stellen wichtige Assets dar.

eoda hat mit dem Modul fuzzychekC der hauseigenen Results as a Service Plattform die CRM Daten Konsolidierung für eine international tätige Hotelkette durchgeführt. Dabei hat eoda den gesamten Prozess vom Datenexport, über die Steigerung der Datenqualität bis zum Import in das finale Salesforce CRM-System betreut. Bei der Datenintegration unterstützte Open Studio von dem eoda Partner Talend.

Die so vollständig zusammengeführten historischen Daten inklusive der notwendigen Entitäten wie Aktivitäten und Dokumente in Verbindung mit der Verbesserung der Datenqualität stellen eine echte Verbesserungen für alle kundennahen Prozesse dar.

Zur Case Study.

R-Akademie: eoda baut das umfassende deutschsprachige Trainingsprogramm für R weiter aus

Die freie Statistiksprache R gewinnt auch im deutschsprachigen Raum immer mehr an Bedeutung. R kommt sowohl in wissenschaftlichen Instituten wie auch in Behörden und Unternehmen immer öfter zur Analyse kleiner und großer Datenmengen zum Einsatz. Die eoda R-Akademie passt sich dieser Entwicklung an und erweitert sein bewährtes Trainingsprogramm für das Jahr 2014 um die folgenden fünf weiteren Kurse:

  • Programmieren mit R II
  • Reproducible Research
  • Big Data mit R
  • Hadoop mit R
  • Angewandte Statistik im Qualitätsmanagement mit R

Diese Kurse sollen insbesondere fortgeschrittenen R-Nutzern ein attraktives Angebot rund um die freie Programmiersprache bieten. Natürlich wird der ganzheitliche Charakter der R-Akademie gewahrt und auch Einsteiger finden den passenden Kurs.

Eine Anmeldung ist ab sofort möglich. Für Frühbucher und Universitätsangehörige werden günstige Sonderkonditionen angeboten.

Weitere Informationen hier.

Weiterlesen

Professioneller R Code – einfach eigene Pakete erstellen und dokumentieren

Selbst in kleineren R-Projekten fällt schnell eine Vielzahl selbst geschriebener Funktionen an. Der Ordnung halber möchte man deren Definition und Beschreibung möglichst aus dem eigentlichen Arbeitsskript heraushalten. Eine einfache Lösung hierfür ist es, eine Funktion in einem eigenen Skript auszulagern und dieses dann mit der source() Funktion im Arbeitsskript aufzurufen. Die so geladenen Funktionen tauchen nun als Objekte im aktuellen Workspace auf. Hat man eine Vielzahl von Funktionen definiert leidet jedoch schnell die Übersichtlichkeit.

Ein eleganterer und besserer Weg sind eigene Pakete. Die Funktionsdefinitionen werden in eine eigene Umgebung geladen und erscheinen nicht direkt im Workspace. Pakete bieten zudem die Möglichkeit einer einheitlichen Dokumentation, welche besonders hilfreich ist wenn man die entwickelten Funktionen weitergeben oder sie selbst nach einem größeren Zeitabstand wiederverwenden möchte. Jeder R Nutzer ist an die typische R-Hilfe gewöhnt und weiß genau wo er nach den für ihn relevanten Informationen suchen muss.

Eigene R Pakete mit RStudio

Gerade in  RStudio ist der Prozess der Paketerstellung dank der implementierten Unterstützung zur Paket Entwicklung überraschend einfach umzusetzen.

Hierzu wählt man unter File „New Project“ und in den darauf folgenden Pop-Ups „New Directory“ und „R Package“.

Einstieg in die Paketerstellung mit RStudio

Einstieg in die Paketerstellung mit RStudio

Weiterlesen

Five ways to handle Big Data in R

Big data was one of the biggest topics on this year’s useR conference in Albacete and it is definitely one of today’s hottest buzzwords. But what defines “Big Data”? And on the practical side: How can big data be tackled in R?

What data is big?

Hadley Wickham, one of the best known R developers, gave an interesting definition of Big Data on the conceptual level in his useR!-Conference talk “BigR data”. In traditional analysis, the development of a statistical model takes more time than the calculation by the computer. When it comes to Big Data this proportion is turned upside down. Big Data comes into play when the CPU time for the calculation takes longer than the cognitive process of designing a model.

Jan Wijffels proposed in his talk at the useR!-Conference a trisection of data according to its size. As a rule of thumb: Data sets that contain up to one million records can easily processed with standard R. Data sets with about one million to one billion records can also be processed in R, but need some additional effort. Data sets that contain more than one billion records need to be analyzed by map reduce algorithms. These algorithms can be designed in R and processed with connectors to Hadoop and the like.

The number of records of a data set is just a rough estimator of the data size though. It’s not about the size of the original data set, but about the size of the biggest object created during the analysis process. Depending on the analysis type, a relatively small data set can lead to very large objects. To give an example: The distance matrix in hierarchical cluster analysis on 10.000 records contains almost 50 Million distances.

Big Data Strategies in R

If Big Data has to be tackle with R, five different strategies can be considered:

Five strategies to tackle big data with R

Five strategies to tackle Big Data with R

Weiterlesen