R

How to remove all user installed packages in R

A little while ago I ran into an issue with R and RStudio. In order to solve this issue I saw myself forced to remove all user installed packages. For a lot of practical reasons it was not an option for me to simply uninstall R and start with a clean slate and a new installation of R.

Therefore I had to find another solution which could help me with removing all user installed packages. I found a few useful tips and tricks, but nothing that immediately did the job for me. That’s why I’ve decided to share my solution, I hope this can help you in the hour of need.

Here is the script I’ve created in order to remove all user installed packages, without removing any base packages for R or MRO.

# create a list of all installed packages
 ip <- as.data.frame(installed.packages())
 head(ip)
# if you use MRO, make sure that no packages in this library will be removed
 ip <- subset(ip, !grepl("MRO", ip$LibPath))
# we don't want to remove base or recommended packages either\
 ip <- ip[!(ip[,"Priority"] %in% c("base", "recommended")),]
# determine the library where the packages are installed
 path.lib <- unique(ip$LibPath)
# create a vector with all the names of the packages you want to remove
 pkgs.to.remove <- ip[,1]
 head(pkgs.to.remove)
# remove the packages
 sapply(pkgs.to.remove, remove.packages, lib = path.lib)
20161027_TALblog_Amsterdam_heatmap

How to combine Google Maps with a Choropleth shapefile of Holland in R: Amsterdam neighbourhoods (postal codes) by number of customers

Sometimes the best way to visualize your information is by plotting it on an map. But what if the information you want to show isn’t a point on a map but a shape, like a neighbourhood? Well, that’s when you use a choropleth, which you can create using a shapefile (look for ESRI shapefiles on Google). Usually the map is still recognizable when you simply use the shapefile. For example, the shapefile of Holland looks like this:
20161027_TALblog_Nederland

But when you zoom in on this map and, like I did, only want to visualize the postal code areas of Amsterdam. The map becomes unrecognizable and you have absolutely no clue of what you’re looking at:
20161027_TALblog_Amsterdam_shapefile

For this reason I wanted to combine this choropleth with a Google Map plot of the same area. In this way you can still recognize the city of Amsterdam and it’s neighbourhoods.
What I wanted to end up with was a heatmap, which showed the “intensity” for each neighbourhood of Amsterdam. In this case, the “intensity” showed was the conversion percentage of a campaign that was done in Amsterdam.

For this purpose we’ll need the following packages: ggmap, RgoogleMaps, maptools, rgdal, ggplot2, rgeos. So we’ll start by loading these packages.

 # install and load packages 
library(ggmap) 
library(RgoogleMaps) 
library(maptools) 
library(rgdal) 
library(ggplot2) 
library(rgeos)

Now that we have loaded all the necessary packages, we’ll move on by gathering the Google Maps view we need to plot the choropleth on. There are two ways to use the geocode function (ggmap package) to get the coordinates we want to use as the center of the map, either you use the name of the location or you just enter the coordinates yourself:

# get the coordinates of the center of the map you want to show
 CenterOfMap <- geocode("Amsterdam")
 CenterOfMap <- geocode("52.374,4.618")

You can use these coordinates to tell the get_map function (ggmap package), which part of the world you’re looking for. With the zoom variable you can define the area you want to see.

# get the map from google
Amsterdam <- get_map(c(lon = CenterOfMap$lon, lat = CenterOfMap$lat),zoom = 12, maptype = "terrain", source = "google")

Make sure you’ve downloaded the correct area of the world with the right zoom level.

# create and plot the map
AmsterdamMap <- ggmap(Amsterdam)
AmsterdamMap

Now we’ve got the map we can start with loading the data we want to show on the map.

# load the data you want to show in the choropleth
geo_data <- read.csv("Data.csv", header = T, sep = ";", dec = ",")

This dataset contains two columns:

  1. id, which contains the four digits of the Dutch postal codes;
  2. value, which contains the value I want to show on the map, in this case this is the conversion rate for each area.

 

Finally, we need to load the shapefile of Holland with the four digit postal areas. In order for Google to recognize the latitude and longitude of the shapefile we need to transform it.

# load the shapefile
shapedata <- readOGR('.', "ESRI-PC4-2015R1")
 # transform the shapefile to something Google Maps can recognize
shapedata_trans <- spTransform(shapedata, CRS("+proj=longlat +datum=WGS84"))

After having done this, we’re ready to combine all our files to create one stunning plot! We start by merging the shapefile with the data we want to plot.

# add an id to each row
shapedata_trans@data$id <- rownames(shapedata_trans@data)
# merge the data and the shapefile
shape_and_data <- merge(x = shapedata_trans, y = geo_data, by.x = "PC4", by.y = "id")

In merging these files it can happen that self-intersections arise, we want to make sure to remove them, since they’ll cause errors.

# repair self-intersections
shape_and_data_wsi <- gBuffer(shape_and_data, width = 0, byid = TRUE)

Lastly, we fortify the combination of the data and the shapefile and combine the resulting data with the original shapefile.

# fortify the shapefile to make it usable to plot on Google Maps
fort <- fortify(shape_and_data_wsi)
# merge the fortified shapefile with the original shapefile data
PC4 <- merge(fort,shape_and_data_wsi@data, by = "id")

We end up with a file we can combine with our Google Map plot we’ve created earlier.

# create the final map with the overlaying choropleth
AmsterdamMap_final <- AmsterdamMap + 
  geom_polygon(aes(x = long, y = lat, group = group, fill = value), size = .2, color = 'black', data = PC4, alpha = 0.8) +
  coord_map() +
  scale_fill_gradient(low = "red", high = "green") + 
  theme(legend.title = element_blank(), legend.position = "bottom")
AmsterdamMap_final

Which in the end leads us to this plot:
20161027_TALblog_Amsterdam_heatmap

I hope this blog can help and inspire you! If you have a better way to achieve the same, or maybe even a better, combination of a choropleth and Google Maps, please let me know! I’m always looking for better ways to visualize my data on a map.

Road

Building a Self Driving car

A few weeks back Elon Musk revealed the second part of his masterplan for Tesla, including self-driving cars and self-driving busses. Cars that can park itself outside the city centre or act like taxi’s, while you’re at work. Probably, the technical innovation isn’t the main bottleneck in the development of self-driving cars, it’s society’s attitude towards it. People are wired by nature to resist change and  are reluctant to adapt when they’ve got no control over it, even though it might improve their lives. A few weeks back, a Tesla car drove into a truck, thereby killing the passenger. Adversaries use this accident as an argument not to change. Tesla’s reaction was that it took 130 million auto-pilot miles before a lethal accident, while the US average is 94 million miles, making it actually immoral not to “drive” a self-driving car.

In my quest of the argument that technical innovation isn’t the bottleneck, I wanted to build my own self driving car. My equivalent of Elon’s Masterplan. Our Lab is the perfect place to figure out whether it’s possible, as it is for projects which have their foundation in curiosity and intrinsic motivation. In this article I’ll describe how I managed to build my own self driving car.

Hacking a car

First thing I needed was a car, I don’t think my boss would appreciate it if I were to hack my company car for this project, so I first decided to try it on a smaller scale. My younger brother got an RC car for his birthday about fifteen years ago, he was kind of to let me break it apart. Second thing I needed was a computer which I could connect to the car, I chose a Raspberry PI 2 as it’s cheap and small enough to fit on top of the car. With some trial and error I managed to reverse engineer the electrical circuits of the remote control and wired the Raspberry PI onto it. Had to dig deep into my memory for this, the last time I soldered was my first year in high school.

Attached to the Raspberry is also a camera, which is mounted at the front of the car, looking at the road ahead. The camera is the “eye” of the car, the idea is that the camera takes a picture of the road and that an algorithm figures out which direction the car needs to go.

SideviewFrontview

Learning the car to drive

In my living room I set out a “road” using a bunch A4 papers being the sides of the road. At this point, I need to apologize to my roommate, who was forced to live in a house for a while with road running through the living room.

On the RoadWhen the car drives on the road, it needs to decide whether to go left, right, forward or whether it needs to stop. The car constantly needs to make this decision. Before each decision the car takes a photo of the road. Our camera was set to take black and white photos of 50 by 50 pixels. A photo is actually just a bunch of data, every pixel has a certain value indicating the “whiteness” of the pixel, and with data we can do a bunch of stuff.

As, I wanted to learn the algorithm on the Raspberry Pi (and not on a more powerful computer), the first thing I wanted to do is reduce the number of pixels at which the car needs to look at. There’s a certain technique, called Feature Selection, which looks at which values are important in order to predict something. The following picture displays at which pixels the car is going to look in order to determine the next action the car has to take, on the left you see the pictures the car takes and on the right to which pixels the car looks. These are 370 instead of 2 500. You can see that most pixels are in the upper right or upper left corner. This makes quite some sense; if the side of the road appears in the upper right corner for example, the car needs to go left.

The final step is to build an algorithm that translates these data into patterns. The algorithm distinguishes, for each of the four actions, combinations of pixels that are white versus black. These patterns can be seen as the key between the photo and the action to take. Personally, this part was probably the most easy part to do, as we use this technique for all kinds of different projects.

Letting the car drive itself

Now we’ve taught the car how to drive, it’s time to set it free. After just five or six times driving car by hand, it was able to find its own way. In the small movie you see it drives a bit jerky, after each action it stops for a small moment. This is due to two reasons, first it needs to take a photo of the road ahead. If the car is in movement, the photo won’t be sharp; it’s like when you move your phone too much when you’re taking your selfie. If the photo is blurred, the algorithm will be less accurate. The second reason is that the algorithm needs some time; take a photo, process the data, predict the next decision and tell the car what to do. We’re asking quite a lot from a small computer.

It’s not perfect, but it’s at the stage where it can drive itself and keep learning if I correct it when it goes to the wrong direction. In other words, while driving, it learns to drive. Letting computers learn from experience, is called Machine Learning. Machine Learning is used more and more these days, for a wide range of different purposes. Here at Cmotions and The Analytics Lab we use Machine Learning techniques mainly to predict customer behaviour. We try to tackle questions like when is this particular customer going to end his subscription, who is likely to buy a certain product or which product suits the individual’s need the best? In this way, we facilitate companies to move from one-to-many approaches to one-to-one.

So, now what? Well step up the game and ask my boss if I can hack my company car, so that it can drive me from and to work while I check my email in the passenger seat or drive me home when I’ve had one too many. Maybe that’s a bit too ambitious for now, but I might program it in such a way that it gets a few beers from the fridge on Friday afternoons.

If you’ve got any questions, don’t hesitate to contact me. And if you have a 3d printer, definitely contact me. The car is still a cabrio and is looking for a roof, who can print me one?

Jeroen Kromme

j.kromme [at] Cmotions.nl
LinkedIn

Voetbal Hackathon (107)

Video & verslag: Emesa winnaar The Analytics Lab Voetbal Hackathon

De eerste editie van de voetbal hackathon is gewonnen door Emesa. Het e-commerce bedrijf, bekend van VakantieVeilingen.nl, bleek het beste in staat de uitslagen van een speelronde in de Engelse Premier League te voorspellen en ging er met de felbegeerde wisselbeker vandoor. Tijdens de voetbal hackathon, een initiatief van The Analytics Lab en Cmotions, werd op 15 april jl. door zeven teams fanatiek gemodelleerd om het fictieve budget van €1.000,- zo goed mogelijk te laten renderen.
Naarmate het speelweekeinde vorderde, begon zich een duidelijke kopgroep af te tekenen. Voorafgaand aan de laatste wedstrijd op maandagavond, was het een nek-aan-nek race tussen de Belastingdienst en Emesa, waarbij de uitslag van Stoke City – Tottenham Hotspur beslissend zou zijn. Titelkandidaat ‘Spurs’ maakte geen fout, won met 0-4 en bewees niet alleen zichzelf daarmee een goede dienst, maar ook het team van Emesa, dat zich hiermee kroonde tot winnaar van de hackathon.
Voetbal Hackathon (40)
Tijdens de prijsuitreiking gaf Thomas Stalman (links op de foto), de trotse aanvoerder van Emesa, toelichting over de winnende tactiek. Met Cruijffiaanse overtuiging legde hij uit met welke tactiek Emesa de strijd was aangegaan en in welke ‘opstelling’ hij zijn team had laten spelen. “We waren met drie personen, dus was het belangrijk een goede taakverdeling te maken. Een persoon heeft zich daarom gefocust op de datapreparatie, terwijl de andere twee vooral met het modelleren en inzetten bezig zijn geweest”, aldus Stalman. “De preparatie van de data hebben we gedaan met zowel R als SQL, voor het modelleren hebben we gebruik gemaakt van randomForest modellen in R om te voorspellen of een wedstrijd in een overwinning voor de thuis- of uitspelende ploeg, of een gelijkspel zou eindigen.” Stalman wees twee cruciale beslissingen aan als sleutel voor het succes: “Ten eerste hebben we er, gezien de relatief korte tijdsperiode, voor gekozen om alleen home, draw of away te voorspellen en de handicaps (waarbij een van de clubs met een fictieve 1-0 voorsprong begint, red.) links te laten liggen. Hierdoor konden we ons volledig focussen op het voorspellen van de uitslag van elke wedstrijd. Daarnaast hebben we alle data van bookmakers van de afgelopen 10 jaar gebruikt als voorspellende variabelen om ons model beter te laten presteren. Dit gaf ons de inzichten om fact-based bets te plaatsen.”
Voetbal Hackathon (107)
De honger naar prijzen is met het winnen van de eerste voetbal hackathon nog niet gestild, stelt Thomas Stalman. “Play-to-win is een van de core values van Emesa. Waar kunnen we dat beter laten zien dan tijdens een hackathon? Wij waren benieuwd hoe onze aanpak en technieken het zouden doen in vergelijking met de concurentie en zijn trots dat we als winnaar uit de bus zijn gekomen. Uiteraard doen we een volgende keer weer mee, ik wil alle teams van harte uitdagen om ons tijdens de volgende editie te verslaan.”
Door het enthousiasme en fanatisme van zowel de organisatie als alle deelnemers, mag de eerste editie van de Voetbal Hackathon van The Analytics Lab en Cmotions een groot succes genoemd worden. De voorbereiding voor een volgende editie zijn, mede dankzij de uitstekende input van de deelnemers, reeds in gang gezet. Mocht je suggesties hebben voor een thema of andere ideeën hebben, neem dan contact met The Analytics Lab op. Houd voor informatie over een volgende hackathon onze website en social media kanalen in de gaten!
Bidons @ Hackathon

Eerste Voetbal Hackathon van The Analytics Lab is een succes!

Terwijl de spanning in de binnen- en buitenlandse voetbalcompetities tot een ongekende climax stijgt, had de speelronde van de Engelse Premier League afgelopen weekeinde een bijzonder tintje voor de deelnemers aan de eerste voetbal hackathon van Nederland, georganiseerd door The Analytics Lab en Cmotions. Op vrijdag 15 april werd er bij  B.Amsterdam gestreden om de prestigieuze wisselbokaal. Na weken van voorbereiding, trainingskampen en hoogtestages, betraden de zeven deelnemende teams het stadion ‘The Muhammed’. De wedstrijdspanning was  tijdens de warming-up al voelbaar. Laptops werden aangesloten, de tactiek werd nogmaals besproken. Nadat de processoren warmgedraaid waren en de voedingskabels de nodige rek- en strekoefeningen hadden afgewerkt, maakte stadionspeaker Niek Agema de opstellingen bekend en werden de spelregels uitgelegd. Tot veler verrassing was het niet de eigen eredivisie, maar de Engelse Premier League die op basis van data analyse voorspeld diende te worden. Bedrukte gezichten bij een aantal teams, die hun voorbereiding volledig gewijd hadden aan hun kennis en dataverzameling van de Nederlandse competitie.

 

  Thuis Uit
16-4-2016 Norwich Sunderland
16-4-2016 Everton Southampton
16-4-2016 Man United Aston Villa
16-4-2016 Newcastle Swansea
16-4-2016 West Brom Watford
16-4-2016 Chelsea Man City
17-4-2016 Bournemouth Liverpool
17-4-2016 Leicester West Ham
17-4-2016 Arsenal Crystal Palace
18-4-2016 Stoke Tottenham

 

Desalniettemin speelden de deelnemende teams vanaf het eerste fluitsignaal zeer gepassioneerd. Elk team kreeg een fictief budget van € 1.000, dat zo goed mogelijk ingezet moest worden om de 10 wedstrijden van deze speelronde te voorspellen. Op elke wedstrijd diende minimaal  €50 en maximaal €200 ingezet te worden, waarbij de odds (quoteringen) voorafgaand aan de hackathon door een bekend wedkantoor waren vastgesteld. Wie maandagavond, na afloop van de laatste wedstrijd, het meeste rendement heeft behaald, is de winnaar van de hackathon en mag de felbegeerde wisselbeker in ontvangst nemen. De volledige wedstrijdhistorie van de afgelopen tien seizoenen in de Premier League werd aan de teams ter beschikking gesteld, het was (uiteraard) ook toegestaan om andere databronnen te gebruiken.

 

 

Het wedstrijdplan van de teams verschilde; een aantal teams zochten meteen de aanval en nam grote risico’s, terwijl andere vertrouwden op een gesloten verdediging en inzetten op de zekerheidjes. Van het verschil met de quoteringen van andere wedkantoren tot het aantal verwachte doelpunten per club en van de onderlinge historische resultaten tot het aantal  niet-Engelsen dat er bij een club op de loonlijst staat; vele variabelen werden gebruikt om op te modelleren. Tijdens de rust werden de teams van een energieboost voorzien middels hét klassieke kantinevoedsel, een broodje bal. Tegelijkertijd werden de aanvoerders door onze eigen Sierd de Vos, de cameragenieke Erik van Nistelrooij, geïnterviewd en geprikkeld om een tipje van de sluier over de gehanteerde strijdwijze op te lichten. Tijdens de tweede helft werd er wederom met zoveel passie en concentratie gewerkt, dat de ruimte zich begon te vullen met de herkenbare lucht van een doorsnee voetbalkleedkamer op zondagmorgen.

JBp20160415-143

Na de reguliere speeltijd volgde een bloedstollende verlenging; de laatste 30 minuten waarin de teams de daadwerkelijke voorspellingen moesten invullen. Tijdens de persconferentie, waarin deze voorspellingen en gebruikte tactieken wereldkundig werden gemaakt, bleek tot ieders grote interesse dat de teams zeer verschillende tactieken hanteerden. Waar alle deelnemers het over eens waren, was dat de sfeer en sportiviteit een voorbeeld zijn voor menig voetbalclub en -stadion. Ook de toeschouwers, toekijkend vanaf de eretribune, genoten met volle teugen van het vermakelijke schouwspel en de uiteenzetting van de aanvoerders over hun strijdwijze. Een team had dusdanig veel vertrouwen in hun eigen model, dat ter plekke besloten werd om eigen geld in te zetten op de uitkomsten van hun model. Na afloop van de persconferentie werd de dag afgesloten met een fameuze derde helft; in de kantine van B.Amsterdam werd onder het genot van een hapje en drankje de hackathon geëvalueerd.

 

De organisatie heeft gedurende het speelweekeinde de tussenstand nauwkeurig bijgehouden. Voorafgaand aan de laatste wedstrijd, Stoke City – Tottenham Hotspur op maandagavond, waren er twee teams verwikkeld in een bloedstollende nek-aan-nek race om de overwinning. De winnaar krijgt de beker uitgereikt, uiteraard wordt dit in de komende dagen op deze website bekend gemaakt.

 

12570887_1088634514490317_1411634884_n

Succesvol(ler) worden met data driven marketing campagnes?

Wij zijn er trots op onze nieuwe proposities met jullie te delen! The Analytics Lab presenteert:

  • De analytics API -> starten met data driven campagnes zonder analytics resources
  • De R accelerator -> beter, sneller en flexibeler data driven marketing toepassen.

Wat is het?

Analytics API

Met deze API scoren wij jouw klanten of prospects op basis van de doelstellingen van jouw marketingcampagnes. Jij zorgt voor de data, wij doen de rest. Geen analytics resources nodig, wel het eerste inzicht en de eerste resultaten van data driven marketing!

R accelerator

Dit template is ontwikkeld voor business vraagstukken waarbij classificatie een rol speelt. Dit houdt in dat het uitermate geschikt is voor campagnes waarbij de customer lifecycle het uitgangspunt is – acquisitie, ontwikkeling (cross/deep/upsell), retentie en winback – én bij conversie vraagstukken (‘gaat de klant wel/niet converteren’).

Voor wie is dit interessant?

 Analytics API

Deze methodiek is geschikt voor organisaties die hun eerste stappen willen zetten in data driven marketing en/of predictive marketing. Zij hebben geen ervaring met het ontwikkelen van scoremodellen en het toepassen van deze modellen in de operatie.

R accelerator

Deze licentie is geschikt voor (mature) data driven organisaties. Zij gebruiken al (predictive) analytics om hun marketing inspanningen succesvoller te maken.

Meer weten?

Heb jij nog vragen of ben jij geïnteresseerd, neem dan contact met ons op! Meer info vind je onder ‘proposities’

bal klaarleggen_4

Doe mee met The Analytics Lab Football Hackathon!

In het voetbal bestaan enorm veel ‘feiten’. Is Utrecht écht de angstgegner van Ajax? Is tegen 10 man voetballen inderdaad moeilijker? Rust er een vloek op het nemen van een penalty die je zelf hebt verdiend? Bestaat thuisvoordeel echt? Benadelen de scheidsrechters de kleintjes? Is Europees voetbal na de winterstop echt dodelijk voor je kampioensambities?

Allemaal aannames die met data te onderzoeken zijn. Het gebruik van data analyses in voetbal is erg in opkomst. Zo gebruikte Duitsland data analyses om in te grijpen tijdens wedstrijden en werd het wereldkampioen. Ook FC Midtjylland, voorheen een betrekkelijk onbekende club, werd kampioen door gebruik te maken van data naar Amerikaans voorbeeld. Wie kent de film Moneyball niet?

Denken jij en je collega’s of vrienden ook verstand van data en voetbal te hebben? Doe dan mee aan de The Analytics Lab Football Hackathon. Dit is een wedstrijd tussen analisten met als doel zo goed mogelijk de toto in te vullen. Doe mee en laat zien dat je meer verstand hebt van voetbal dan wie dan ook!

Praktische informatie:

  • Wanneer: 15 april 2016 van 14:00 tot 19:00
  • Inschrijven vóór: vrijdag 25 maart 2016
  • Entree: gratis!
  • Inschrijven als team (3 tot 6 personen)

Schrijf je uiterlijk 25 maart in voor The Analytics Lab Football Hackathon!

hipster-working

Wat staat er op het programma?

We krijgen veel vragen om iets meer te vertellen over de Playground en diens functionaliteiten. Hieronder lichten we dat toe. En verder lees je ook enkele voorbeelden van experimenten waar we mee bezig zijn, of binnenkort mee gaan starten.

Onze belofte omtrent de Playground is: hardware mag geen bottleneck zijn! Daarom hebben we de keuze gemaakt voor een Cloud omgeving die op een veilige manier overal te benaderen valt. Hierop kunnen we Microsoft Azure en Google Compute gebruiken. Dit maakt dat we snel en flexibel kunnen schakelen in trajecten en jou op een laagdrempelige manier kunnen laten instappen.

Beide omgevingen bieden een breed scala aan mogelijkheden, waarmee de ambitieuze en leergierige data scientist alle uitdagingen te lijf kan gaan: virtual machines, web applications, cloud services, sql & nosql databases, data lakes en Hadoop.

The Analytics Lab kenmerkt zich door de focus op de toepassing van vernieuwende data, tooling en technieken. Hiermee proberen we data analytics breder toepasbaar te maken, vooral in branches waar dit domein nog in de kinderschoenen staat. Daarnaast kijken we in de juist meer volwassen branches naar welke versnelling & opschaling we kunnen bereiken door het introduceren van innovatieve toepassingen.

Waar zijn wij dan zoal mee bezig? We noemen er een paar. De Customer Journey is natuurlijk al een tijdje hot in marketingland. Tot nu toe wordt deze vaak vanuit een theoretische setting gebruikt: welke stappen zou een prospect of klant moeten doorlopen? Wij zijn bezig of we, met behulp van Process Mining, een methode kunnen ontwikkelen waarmee we de daadwerkelijke Customer Journey in kaart kunnen brengen: wat gebeurd er in de praktijk? Dit zou in een forse verbetering van de klantreis moeten resulteren. Niet alleen doordat we de strategie met de praktijk kunnen testen, maar ook omdat we triggers van events kunnen identificeren en daarop campagnes kunnen ontwikkelen.

Daarnaast organiseren we in maart een hackathon met voetbaldata. We dagen teams van analisten en scientists uit wie het beste, data driven, de Toto van dat weekend kan invullen. Elk team krijgt een fictief bedrag, die ze mogen verdelen over de uitslagen die ze verwachten voor dat weekend. Aan het einde van het weekend zal worden gekeken welk team het meeste geld zou hebben opgebracht. De hackathon zal plaatsvinden op een vrijdag, van 14u tot 19u waarbij pizza’s worden geserveerd. Aansluitend vindt de derde helft plaats. Ben je, alleen of met collega’s, geïnteresseerd in deelname? Laat het ons weten.

Een laatste voorbeeld van een experiment dat we op dit moment uitvoeren, betreft een case of we met behulp van (vooral) open data, bezoekersaantallen op winkellocaties kunnen voorspellen. Je hoeft het nieuws maar te volgen om alle uitdagingen van de (fysieke) retail in Nederland mee te krijgen. Naast het aantrekkelijk krijgen of houden van formules, is de logistiek en distributie is een enorme challenge voor bedrijven. We zijn er van overtuigd dat data & analytics hier een veel grotere rol moeten spelen. Met open data moet je denken aan bijvoorbeeld weers- en verkeersdata.

Geïnteresseerd in één van de onderwerpen, bel (+31 (0)33 258 28 30) of mail (info@theanalyticslab.nl) meteen. Of benader ons via twitter (@TheAnalyticsLab).

people_town

The Analytics Lab is live!

We zijn live!

Welkom bij The Analytics Lab, een nieuw initiatief van Cmotions.

Waarom we dit initiatief hebben genomen? We merken dat onze klanten meer en meer worstelen met hun digitale uitdagingen. Data verzamelen doen we intussen allemaal wel – in meer of mindere mate. Maar het ophalen van juist díe inzichten die je organisatie verder brengen én het op de juiste manier toepassen van deze inzichten zodat ze hét verschil maken, is een heel ander verhaal. Het eerder benutten van nieuwe en innovatieve analytics toepassingen biedt kansen voor blijvend concurrentievoordeel.

Onze klantcases zijn meestal marketing gerelateerde vraagstukken. Jij bent als specialist of als manager werkzaam op dit vakgebied en je bent geïnteresseerd en nieuwsgierig naar de kansen en mogelijkheden die nieuwe data, technieken en toepassingen jou kunnen bieden. Jij volgt en leest, net als wij, alle toonaangevende blogs op dit vlak. Je hoort wel alle beloftes, maar mist de echte succesverhalen.

The Analytics Lab wil jou in staat stellen om samen, hands-on, te experimenteren met jouw uitdagingen. We hebben allerlei soorten (open) datasets beschikbaar: transactiebestanden, social media data, clickdata en campagnedata – om maar een paar te noemen. We hebben een Cloud omgeving ingericht met daarop de meest gebruikte – vernieuwende – analysesoftware. Mis je nog iets? Laat het ons weten. Jouw eigen praktijk is onze meest waardevolle toepassing!

Wij gaan verder dan de gewone marketing vraagstukken zoals traditionele churn en cross-sell analyses. The Analytics Lab focust zich juist op vernieuwende methoden, technieken en toepassingen. We gaan dan ook verder dan alleen het marketing vakgebied; ook alle uitdagingen die het Internet of Things met zich meebrengt voor branches die van oudsher niet veel met data te maken hebben gehad, kunnen bij ons terecht.

Kom kennismaken, we helpen je graag in je verkenning!

Volg dit blog voor nieuws van ons Lab. En volg ons Twitter account ‘The Analytics Lab’. Hier delen wij, naast onze eigen updates, ook links naar alles dat ons bezig houdt.