Case Study: Entwicklung eines Scoring-Algorithmus für die databyte®GmbH

Die databyte®GmbH stellt Ihren Auftraggebern umfangreiche Wirtschaftsinformationen u.a. für die Neukundengewinnung bereit. Insgesamt sind mehr als 5 Millionen Gewerbetreibende mit mehr als 100 Millionen Zusatzinformationen verfügbar. Die Passgenauigkeit der für die Neukundengewinnung zu identifizierenden Zielgruppenpotenziale ist dabei das entscheidende Qualitätskriterium.

Die databyte® GmbH ist auf die Entwicklung von Online-Informationssystemen spezialisiert und verfügt über umfangreiche eigene Datenbestände. (Bildquelle: databyte GmbH)
Die databyte® GmbH ist auf die Entwicklung von Online-Informationssystemen spezialisiert und verfügt über umfangreiche eigene Datenbestände. (Bildquelle: databyte GmbH)

„Case Study: Entwicklung eines Scoring-Algorithmus für die databyte®GmbH“ weiterlesen

EXASOL und R: Performante Kombination für die Anforderungen von Big Data

Über 180 Data Professionals aus mehr als 15 Ländern haben zwei ereignisreiche Tage auf der EXASOL Xperience 2016 in Berlin erlebt. Ein abwechslungsreiches Programm aus Vorträgen, Workshops und Partner-Sessions kombiniert mit spannendem Networking – das erste internationale Kundenevent des Datenbankanbieters EXASOL war ein voller Erfolg. Die Veranstaltung bot anhand von Best Practice Ansätzen und zahlreichen Use Cases überzeugende Einblicke in die Leistungsfähigkeit der EXASOL Datenbank und das dadurch entstehende analytische Potenzial.

Networking über den Dächern von Berlin.
Networking über den Dächern von Berlin. ©Markus Köller, www.die-lounge.com

„EXASOL und R: Performante Kombination für die Anforderungen von Big Data“ weiterlesen

[R] Kenntnis Tage 2016: Mit R und Analytik die digitale Transformation meistern

„Die digitale Transformation ist da.“ Das ist nicht nur die Botschaft der diesjährigen CeBIT, sondern die auf den Punkt gebrachte Aktualität des digitalen Wandels im Unternehmensumfeld. Datenanalyse als wichtiger Baustein der digitalen Transformation ermöglicht unter anderem vorausschauende Wartung im Rahmen von Industrie 4.0 Initiativen.

Die Programmiersprache R als lingua franca der Datenanalyse steht im Zentrum der [R] Kenntnis-Tage, die vom 02. bis 03. November 2016 in Kassel stattfinden, ausgerichtet vom Datenanalysespezialisten eoda.

R Kenntnis-Tage Logo

Die [R] Kenntnis-Tage vereinen an zwei Tagen vielfältige Themen für Anwendungsfälle wie Data Mining, Predictive Analytics oder Datenvisualisierung mit anregendem Networking und aufschlussreichen Success Stories aus der Praxis.

„[R] Kenntnis Tage 2016: Mit R und Analytik die digitale Transformation meistern“ weiterlesen

Training for the big data era: eoda publishes R Academy programme for 2016

The data analysis specialist eoda presents the programme of the R Academy for 2016. The R Academy is the comprehensive training concept for the open-source programming language R. It offers users a modular course structure covering the topics R and data analysis – either in Kassel (Germany) or as on-site training. More than 1,000 satisfied participants have already used the eoda Training.

Attractive course programme with focus on professional use of R

R is considered one of the best solutions for analysing and visualizing data, data mining and business intelligence. More and more companies in the German-speaking area are making use of the potential of R for their data-assisted processes – from sales forecast to predictive maintenance to risk analysis. “The practical requirements with regard to performance, reproducibility or maintainability of the scripts have as well been taken into account for the conception of our new course programme as methodical developments in the field of R”, Katharina Heidelbach, responsible product manager at eoda, explains. „Training for the big data era: eoda publishes R Academy programme for 2016“ weiterlesen

Schulungen für das Big-Data-Zeitalter: eoda veröffentlicht R-Akademie Programm 2016

Der Datenanalysespezialist eoda stellt das Kursprogramm der R-Akademie für das Jahr 2016 vor. Die R-Akademie ist das umfassende Schulungsprogramm für die freie Programmiersprache R. Für die Anwender eröffnet sich ein modulares Kursangebot rund um die Themen R und Datenanalyse – in Kassel oder Inhouse. Über 1.000 zufriedene Teilnehmer haben das Schulungsangebot von eoda bereits für sich genutzt.

Attraktives Kursprogramm mit Fokus auf die professionelle Nutzung von R

R gilt als eine der besten Lösungen zur Analyse und Visualisierung von Daten, für Data Mining und Business Intelligence. Auch im deutschsprachigen Raum nutzen immer mehr Unternehmen das Potential von R für ihre datengestützten Prozesse – von der Absatzprognose, über die vorausschauende Instandhaltung bis zur Risikoanalyse. „Die Anforderungen in der Praxis hinsichtlich Performance, Reproduzierbarkeit oder der Wartbarkeit der Skripte haben wir bei der Konzeption unseres neuen Kursprogramms genauso aufgegriffen wie methodische Weiterentwicklungen im Umfeld von R“ erklärt Katharina Heidelbach, zuständige Produktmanagerin bei eoda.

„Schulungen für das Big-Data-Zeitalter: eoda veröffentlicht R-Akademie Programm 2016“ weiterlesen

Pressemitteilung: Erfolgsfaktor Datenqualität – eoda Whitepaper informiert über Herausforderungen und Chancen

Kassel, 15.10.2015: Das neue Whitepaper von eoda informiert über den Erfolgsfaktor Datenqualität. Der Analysespezialist zeigt Herausforderungen im Datenmanagement auf und stellt Prozesse sowie Tools zur effizienten Qualitätssteigerung vor. Das Whitepaper „Datenqualität – Der Schlüssel für die Umwandlung von Kundendaten in Kundenwert“ ist ab sofort auf der Homepage des Unternehmens frei verfügbar.

Über 90 Prozent der Unternehmen leiden unter unvollständigen oder fehlerhaften Daten – dabei gelten Daten als das Gold der digitalen Welt. Sie bilden die Grundlage für langfristige Entscheidungen und können wertvolle Wettbewerbsvorteile zutage fördern. Doch nur korrekte Daten ermöglichen die operativen Geschäftsprozesse und liefern belastbare, nutzenbringende Analyseergebnisse. Die Datenqualität ist somit der entscheidende Faktor für Smart Data – die Umwandlung von Daten in Wissen und Nutzen.

eoda Whitepaper zum Thema Datenqualität
eoda Whitepaper zum Thema Datenqualität

„Pressemitteilung: Erfolgsfaktor Datenqualität – eoda Whitepaper informiert über Herausforderungen und Chancen“ weiterlesen

Eine gelungene Veranstaltung: Die [R] Kenntnis-Tage 2015

Wissen & Vernetzen – unter diesem Motto fanden am 30. September und 1. Oktober die [R] Kenntnis-Tage 2015 im „Hotel Schweizer Hof“ in Kassel statt. 255 Folien R Know-how, 14 abwechslungsreiche Themenblöcke und anregendem Networking haben dieses Motto mit Leben gefüllt.

Die Eröffnungsrede der [R] Kenntnis-Tage 2015 von eoda Geschäftsführer Oliver Bracht.
Die Eröffnungsrede der [R] Kenntnis-Tage 2015 von eoda Geschäftsführer Oliver Bracht.
Vielfältige Module und inspirierende Erfolgsgeschichten aus der Praxis

Unter dem treffendem Titel „Inside R“ sind die Teilnehmer am ersten Veranstaltungstag in das Konzept und die Funktionsweise der freien Programmiersprache R eingetaucht. Diese Session war der Startschuss für den Themenblock zum Umgang mit R, der „Besser Programmieren“, „Performanceoptimierung mit C++“ und „Datenmanagement“ beinhaltete. Parallel dazu setzte der zwei Track des Tages den Schwerpunkt ganz auf die Methodik. Bei den Themen „Clusteranalyse“, „Data Mining & Predictive Analytics“, „Modelloptimierung“ und „Text Mining“ konnten die Teilnehmer Ihre R-Kenntnisse erweitern und die richtige Anwendung dieser mächtigen Analysemethoden erlernen.

„Eine gelungene Veranstaltung: Die [R] Kenntnis-Tage 2015“ weiterlesen

Data Science mit R – Wissen vernetzen auf den [R] Kenntnis-Tagen 2015

15 Module, 2 Tage, 1 Event: Ende September beginnen die [R] Kenntnis-Tagen 2015 – die umfassende Veranstaltung für die deutschsprachige R-Community. Vom Einsteiger bis zum Experten, von der Clusteranalyse bis zum Text Mining, vom Datenmanagement bis zur Visualisierung, R mit Big Data und im Business Umfeld: In einem Event vereint eoda die wichtigsten Themen rund um die Programmiersprache R mit anregendem Networking und aufschlussreichen Success Stories aus der Praxis.

Logo Startseite

Die erfahrenen Trainer von eoda präsentieren in zwei parallel laufenden Schulungstracks in sich abgeschlossene Module, aus denen die Teilnehmer frei wählen können:

Inside R – Konzept und Funktionsweise von R

Entwicklung der Sprache | Historie der Pakete | R im Kontext anderer Sprachen Datentypen und Datenstruktur | Funktionsorientierung | Higher order functions | Lazy evaluation| Klassensysteme | generische Funktionen und Methoden | Namespaces

Besser Programmieren – Schreiben effizienter eigener Funktionen

Programmierparadigmen | Speicher-und Laufzeiteffizientes Programmieren | Speichertypen | Vektorwertiges Programmieren | Code Styles | apply-Funktionen vs. Schleifen | Kognitive Zeit vs. Computerzeit | R-Package assertive

Performanceoptimierung mit C++ – Das Paket Rcpp

Auslagern von R-Funktionen nach C++ | Performance Testing: microbenchmark

„Data Science mit R – Wissen vernetzen auf den [R] Kenntnis-Tagen 2015“ weiterlesen

eoda auf der useR! Conference 2015 in Aalborg: Die Highlights vom ersten Präsentationstag – Teil 2

Nach dem ersten Teil der Highlights vom Mittwoch, folgt hier der zweite Teil mit einem Überblick über die weiteren Themen und Inhalte der Sessions vom ersten Präsentationstag der useR! 2015.

Computational Performance

Der aus unserer Sicht interessanteste Vortrag der Performance Session kam von Helena Kotthaus von der TU Dortmund. In ihrem Vortrag hat sie das Projekt TraceR vorgestellt, ein Tool zur Performancemessung. Im Unterschied zu anderen Ansätzen ist die Performance Messung hier direkt in den R Interpreter implementiert, was zu präziseren Messergebnissen führt.

In ihrem Vortrag hat sich Kotthaus auf die Messung der Performance von parallelisierten Prozessen konzentriert, einem zunehmend relevanten Problem bei der Erstellung von performantem R Code.

TraceR bietet eine visuelle Ausgabe der Ergebnisse. Die Laufzeit der einzelnen Prozesse, der CPU Verwendung pro Prozess, sowie die Auslastung des RAM werden übersichtlich dargestellt. So lässt sich leicht erkennen, ob eine Veränderung in der Anzahl der Prozesse zu einer verbesserten Performance führt. Die Performanceverbesserung steigt nicht zwingend linear, sondern erreicht an einem bestimmten Punkten – je nach Hardware Setting und Problemstellung – ein Optimum. TraceR kann dabei helfen dieses zu finden.

Business

Anders als der Titel „Statistical Consulting using R: a DRY approach from the Australian outback“ vermuten ließ, hat Peter Baker mit einem erfrischenden Vortrag die Business Session eröffnet. Seine erste These lautete: Egal was der Kunde in einem ersten Gespräch über das zu lösende Problem sagt: Es kommt immer anders.

Sein DRY (Don‘t Repeat Yourself) Ansatz läuft darauf hinaus, wiederkehrende Prozesse zu standardisieren und zu automatisieren. Hierzu hat Baker ein R Paket namens dryworkflow (derzeit nur über GitHub verfügbar) entwickelt, dass einige Standardaufgaben übernimmt: Hierzu gehören unter anderem das Anlegen einer Ordnerstruktur und eines git repositories inklusive erstem Commit. dryworkflow bietet damit eine Alternative zum ProjectTemplate Paket, das einen ähnlichen Funktionsumfang abdeckt.

„eoda auf der useR! Conference 2015 in Aalborg: Die Highlights vom ersten Präsentationstag – Teil 2“ weiterlesen

eoda auf der useR! Conference 2015 in Aalborg: Die Eindrücke vom „Tutorial Tuesday“

Mit dem „Tutorial-Tuesday“ hat gestern in Aalborg die useR! Conference 2015 begonnen. Unser Team vor Ort hat viele der Tutorials besucht und die wichtigsten Informationen für die R-User zusammengefasst:

Rocker: Using R on Docker (Dirk Eddelbuettel)

Seit einiger Zeit schon gehört Docker zu den am heißesten diskutierten Ansätzen in der IT-Welt. Docker ist eine Abstraktionsschicht, vergleichbar mit einer Virtualisierungsumgebung. Innerhalb von Docker finden sich Container, die einer virtuellen Maschine (VM) entsprechen. Im Unterschied zu VMs sind Docker Container jedoch leichtgewichtig: Sie benötigen kein eigenes Betriebssystem, sie verbrauchen deutlicher weniger Disk space, sie lassen sich schnell und einfach erstellen, verteilen und initialisieren. Docker läuft auf allen gängigen Betriebssystemen und wird von nahezu allen wichtigen Cloudanbietern (Microsoft Azure, Amazon, Digital Ocean etc.) unterstützt.

Dirk Eddelbuettel, Mitentwickler des populären C++ Interfaces Rcpp, stellte in seinem Tutorium Rocker vor. Rocker steht für R on Docker. Es handelt sich dabei nicht um ein R Paket, sondern um ein Set von R-Instanzen, die sich in Docker Containern befinden. Eddelbuettels Kern-Anwendungsszenario ist das Testing. Mit Hilfe von Docker lässt sich Code automatisiert auf unterschiedlichen R Versionen testen. Rocker lässt sich leicht erweitern –  sei es für spezielle Einsatzszenarien oder generelle Anwendungsfälle, die dann über den Docker Hub veröffentlicht werden können.

Ein anderes interessantes Anwendungsfeld von Docker ist die Reproduzierbarkeit von Analysen. Mit Docker lassen sich Skripte für bestimmte R-Versionen inklusive aller verwendeter Pakete in den verwendeten Versionen in einen Container packen und archivieren. Docker bietet damit eine weitere Alternative zu den gängigen Ansätzen Packrat von RStudio und checkpoint von Revolution Analytics.

Statistical analysis of Network data (Gábor Csárdi)

Netzwerke sind heutzutage allgegenwärtig. Beispiele hierfür sind die Kontakte in sozialen Netzwerken wie Facebook oder Twitter, Verlinkungen von einer Internetseite zur anderen oder der Verkehrsflussfluss zwischen Flughäfen. Gábor Csárdi, Maintainer des weitverbreiteten igraph-Pakets, hat mit seinem Tutorial einen spannenden Überblick darüber gegeben, wie sich die vielzähligen Verbindungen und Strukturen innerhalb eines Netzwerks mit den Methoden der Netzwerkanalyse untersuchen lassen.
Zu Beginn des Tutorials wurden verschiedene Datenstrukturen zur Repräsentation von Netzwerkdaten vorgestellt. Im zweiten Teil lag der Fokus auf den Methoden, mit denen sich die Struktur des Netzwerks beschreiben lassen. Welche Knoten sind besonders gut vernetzt? Über wie viele Ecken sind die Knoten in einem Netzwerk miteinander verknüpft? Die Netzwerkanalyse mit R gibt Antworten auf diese Fragestellungen.
Anschließend wurden verschiedene Ansätze präsentiert, mit denen sich Gruppen innerhalb eines Clusters identifizieren lassen. Zum Abschluss gab Csárdi einen kurzen Überblick über die Visualisierung von Netzwerken.

Alles in allem gab das Tutorial einen guten Einblick in die zentralen Begriffe der Netzwerkanalyse und hat Lust auf mehr gemacht.

„eoda auf der useR! Conference 2015 in Aalborg: Die Eindrücke vom „Tutorial Tuesday““ weiterlesen