Le Tour de France à l’heure du Big Data

Le Tour de France à l’heure du Big Data, High tech.

Les données sont devenues le nerf de la guerre des équipes cyclistes. Bientôt, des vêtements scruteront les performances des coureurs.

Chris Froome, le maillot jaune du Tour de France est-il surnaturel ou se dope-t-il? La semaine dernière, une vidéo circulant sur Internet et montrant le coureur lors de son incroyable ascension du Mont Ventoux en 2013, associée à des statistiques, mesurant fréquence de pédalage, vitesse, puissance (mesurée en watts), et rythme cardiaque est venue jeter de l’huile sur le feu du dopage.

Pour couper court aux rumeurs, l’entraîneur Tim Kerrison, a dévoilé mardi une nouvelle série d’indicateurs sur les performances de son coureur. « Collecter les données et s’en servir, c’est un avantage compétitif [comme] dans tous les secteurs de l’économie », a-t-il lancé, rappelant l’importance prise par la technologie dans le vélo. « On n’a pas attendu 2015 pour faire du Big Data. Il y a 15 ans, on était en retard sur l’athlétisme ou la natation. Aujourd’hui, on est devant», explique Frédéric Grappe, directeur de la performance au sein de l’équipe Française des Jeux.

Capteurs nichés dans les pédaliers

Actuellement, les données mesurant les performances du coureur sont récupérées grâce à des capteurs nichés dans les pédaliers. Ces systèmes ont fait leur apparition au début des années 2000, au lendemain de l’affaire Festina, qui a obligé les équipes à réfléchir à l’amélioration des performances autrement que par la dopage. « Cela nous a permis d’avoir des réponses bio-mécaniques aux entraînements qu’on n’avait pas avant », dit Frédéric Grappe. En 15 ans, si le dopage n’a pas disparu, le principe du recueil de données s’est installé. Mais les capteurs se sont miniaturisés, et les données ont gagné en précision. Désormais, elles ne sont plus transmises par câble mais via ANT+, sorte de réseau Bluetooth spécifique, à un appareil situé sur le guidon, qui permet au coureur d’y accéder en temps réel. En revanche, réglementation oblige, l’équipe technique et les entraîneurs doivent attendre la fin de la course pour les étudier.

Pour la première fois, ils peuvent – en théorie – accéder en direct à la localisation précise de leurs coureurs, grâce à d’autres capteurs GPS installés sur les pédaliers. ASO a conclu en ce sens un partenariat avec Dimension Data. « C’est un défi technique d’identifier par de simples mesures la localisation des coureurs», dit son porte-parole Adam Foster.

Des vêtements et dans le futur un casque connecté

Les capteurs dans les pédales ne sont qu’un début. Dans un futur proche, les coureurs porteront des vêtements connectés. La start up Citizen Science commercialisera début 2016 en partenariat avec Cyclolab, un grand fournisseur d’équipement de vélo, un cuissard (la combinaison du coureur) intégrant GPS, capteur d’hydratation, de température corporelle, et indicateurs de posture, permettant de savoir comment sont positionnés les coureurs sur le vélo. « On l’a fait dans le basket, le foot et le rubgy », commente son fondateur Jean-Luc Errant. A terme, ce sont les réactions du cerveau qui pourraient être mesurées grâce à un casque adapté.

Alors que de manière récurrente – le Tour 2015 n’y échappe pas – revient le soupçon de moteurs cachés dans les selles ou dans les roues, la technologie devrait permettre d’améliorer sensiblement le vélo lui-même, en l’adaptant au coureur. Des capteurs pourraient permettre de mesurer la façon dont réagit le vélo, qui se déforme sous la pression du coureur. « C’est comme dans le saut à perche, si vous n’avez pas la bonne perche, vous ne passez pas la barre », dit Frédéric Grappe.

Actuellement, la réglementation n’empêche pas à la technologie de s’installer. En revanche, l’accès aux données en temps réel, et donc le téléguidage des coureurs est interdit. Souvent à la fin, c’est la technologie qui gagne. La preuve, l’oreillette s’est installée.


En savoir plus sur http://www.lesechos.fr/tech-medias/hightech/021219927577-le-tour-de-france-a-lheure-du-big-data-1138761.php?MWAlaCLd0MZ7zFsA.99

Accelerating the Tour de France – a revolutionary viewing experience, powered by Dimension Data

Commencing in July this year at the Tour de France, Dimension Data will partner with A.S.O. to revolutionise the viewing experience of billions of cycling fans across the globe. Both organisations said their common goal in the coming years is to deliver and share the best race information speedily and in real-time with race commentators and the global viewing public.

Starting 4 July, Dimension Data’s Daily Data Wrap will comprise data highlights on the Tour de France riders. Data will include:

  • Stage winner’s top speed, average speed and time per kilometre;
  • Fastest riders up key climbs;
  • Speed of winner at the finish line;
  • Top speed achieved by a rider on the day;
  • Average speed across all riders;
  • Rider that spent the longest at the front of the race;
  • Time between first and last rider; and
  • Many other exciting data statistics uncovered during the three week event

Click here to register for the Daily Data Wrap, and for fans wanting real-time data updates, follow the ASO’s twitter feed on @letourdata.

This major innovation was made possible by Amaury Sport Organisation (ASO) in partnership with the 22 teams participating in the 2015 Tour de France. Highly accurate data will be collected through the use of live trackers under the saddle of each rider. Dimension Data will then process and analyse the data, and make it available to cycling fans, commentators, broadcasters and the media.

When the Tour de France begins on Saturday, the viewing public around the world will be able to follow all 198 riders in 22 teams real-time, and be able to track the speed at which each cyclist is riding, exactly where he’s positioned in the race in relation to other cyclists, and the distance between each rider – all via a beta live tracking website.

Dimension Data’s Executive Chairman, Jeremy Ord, said, “The technology will allow cycling fans to follow the race in ways they’ve never been able to before. Until now it was difficult to understand what was happening outside of what could be shown on the live television coverage. The ability to follow riders, get accurate information about which riders are in a group, and see real time speed are just some of the innovations that will be realised through this solution. During the duration of the three week race, we’ll be rolling out a range of new capabilities, including a beta live tracking website.”

The real time analytics solution will take the data provided by a third party geo localisation transmission component, undertake data cleansing and analysis, and provide access to this data as both a real time data stream, and a historical archive.

Ord said Dimension Data carried out testing during the Critérium du Dauphiné race which was held in France from 7 to 14 June. “We analysed one cyclist cycling at an astounding 104 kilometres per hour. This type of data has not been available in the past.”

All data analysed will be available through a beta live tracking website. This allows fans to select their favourite rider to follow, monitor the race on their phone or tablet (through a responsive design beta website) while they watch it live on the television, and gain access to additional data insights.

The 198 riders in 22 teams will generate 42,000 geospatial points and 75 million GPS readings. In addition, the live tracking website is built to support 17 million viewers and 2000 page requests per second. Data on riders will be processed in Dimension Data’s cloud platform across five continents consuming over 350 000 000 cpu cycles per second.

Brett Dawson, Dimension Data’s Group CEO said there are multiple layers to the innovation required to deliver the solution for ASO. We needed to implement cutting edge technology in the form of advanced real time analytics and a highly contemporary digital platform that’s able to provide innovative insights into the race that have never been available before.

“Dimension Data is bringing a new level of technical capability to the Tour de France in areas that will transform the technology landscape, including internet of things, real time big data analytics, Elastic Cloud Infrastructure, contemporary digital platforms, advanced collaboration technologies, and agile development practices. We’ll be their ‘Technical Tour de Force’.”

Christian Prudhomme, Tour de France Director said, “This top notch technological development will enable a better analysis of the race, highlight the race tactics, and also show how essential in this sport is each rider’s role within his team. It will now be possible to understand how to prepare for a sprint finish in the last few kilometres of a stage, feel the wind’s impact on the rider’s speed, and so much more. Our efforts combined with those of Dimension Data will permanently change the way we follow cycling and the Tour de France.”

From 2016 for the next four years, ASO and Dimension Data will work closely together to extend and enhance the platform to deliver a range of innovative end-user experiences.

Objets Connectés: Explication de la géolocalisation des coureurs sur le Tour 2015 (Source: RTBF)

Pour la première fois sur une course cycliste professionnelle, tous les coureurs engagés au départ du Tour seront équipés de capteurs capables d’envoyer en direct leur position GPS. Grâce au partenariat passé avec Dimension Data, le traitement et l’analyse de ces données permettront aux internautes et aux téléspectateurs de suivre le Tour avec un nouveau regard, plus complet, plus précis. Et l’expérience est appelée à s’enrichir avec les années…

10 ANS DE PREPARATION
Le passionné de cyclisme vit quelquefois une frustration à ne pas identifier avec certitude les différents groupes de coureurs, qu’ils soient échappés ou distancés par le peloton. Les moyens de géolocalisation qui existent et évoluent depuis plus de dix ans ont ouvert de nombreuses options pour obtenir une vision fidèle, en temps réel, de l’état de la course. En charge des systèmes d’information chez A.S.O., Pascal Queirel étudie justement ces questions et se souvient des premiers tests effectués : « En 2004, nous avions déjà placé des émetteurs sur des voitures qui suivaient les coureurs sur le chrono de l’Alpe d’Huez. Puis en 2008, c’est pour le Tour de Picardie que nous avons fait des essais sur les vélos, et un plus grand nombre de coureurs. Mais avec la transmission par GPRS, nous étions exposés à des pertes de réseaux, soit par saturation quand le public est trop nombreux, soit dans les traversées de zones non couvertes ». La possibilité d’acheminer les données par voie satellitaire ayant elle aussi été abandonnée, en raison du poids des émetteurs, c’est par les liaisons HF déjà utilisées par les signaux vidéo que circulent les informations : la première expérience à l’échelle d’un peloton entier a été menée sur Paris-Tours 2013.

LA SOLUTION TECHNIQUE : UN RESEAU MAILLÉ DE CAPTEURS
En pratique, 500 « trackers » ont été conçus et fabriqués pour équiper les vélos du Tour de France 2015. Chacun de ses capteurs, qui pèse 80 grammes, est placé sous la selle d’un coureur  et dispose d’une autonomie de 5 étapes. Il émet un signal par seconde, et envoie sa position GPS par le biais de transmetteurs installés sur 25 véhicules (voitures, motos d’officiels et d’organisation) qui feront office de « puits de remontée », c’est-à-dire dirigeront les données vers l’avion-relais. En zone technique, le dispositif mis en place avec Dimension Data sert à centraliser, traiter et diffuser cette masse d’informations aux techniciens qui les mettent en forme, puis les placent à la disposition du public.

DES INFOS PLUS PRECISES SUR LE WEB, LA TV…
Pour cette première mondiale, l’objectif affiché sera de réunir et d’utiliser avec une fiabilité maximale les données provenant des 198 coureurs du peloton, sachant que les équipes cyclistes ont toutes choisi de tabler sur cette solution d’avenir et d’adhérer à ce projet. Dès lors, une page internet complémentaire de l’appli de tracking déjà existante sur letour .fr sera mise en ligne, avec des suivis de composition de groupes et d’écarts en direct. Des représentations graphiques sont également préparées pour les diffuseurs TV, qui pourront par exemple identifier sur l’instant les coureurs victimes d’une chute. Surtout, la technologie utilisée, qui enregistre toutes les données, rend aussi possible dans l’avenir la reconstitution  de séquences de course (sprints, attaques, etc.), par exemple en 3D. A suivre…

La Fnac s’adjoint l’expertise d’une start-up dans le domaine du Big Data prédictif: Plus value: +30% de chiffre d’affaire

La Fnac s’adjoint l’expertise d’une start-up dans le domaine du Big Data prédictif | L’Atelier : Accelerating Business.

Pour mieux cibler ses clients et optimiser ses ventes, la Fnac a décidé de mieux faire usage des données les concernant. En collaboration avec une start-up, le groupe s’appuie désormais sur un modèle prédictif.

Les start-ups se présentent comme des acteurs majeurs du Big Data, comme l’évoquait Mathias Herberts dans son entretien pour L’Atelier. Des entreprises avec lesquelles les grands groupes doivent impérativement rentrer en collaboration pour accroître leur efficacité et leur rentabilité, selon le fondateur de Cityzen Data. Une logique que le groupe FNAC a intégrée si l’on en croit son travail mené aux côtés de la start-up Tinyclues et présenté lors du salon du Big Data les  10 et 11 Mars dernier à Paris. Cette start-up est à l’origine de la création d’une plate-forme Saas (software as a service) permettant d’établir un modèle prédictif, en se basant sur les données récoltées par l’entreprise. Avec plus de 20 millions de clients et un nombre incalculable de données, la FNAC se devait d’optimiser le ciblage de ses campagnes, et ce en mettant à profit les données produites par les clients grâce au Big Data prédictif.

Un modèle probabiliste

En se basant sur des algorithmes de Machine Learning, la méthode élaborée par Tinyclues permet de cibler les clients beaucoup plus finement qu’avec le dispositifanciennement utilisé par la Fnac. Un ciblage qui permet d’identifier les bonnes cibles pour les campagnes marketing et ceci en un temps record: « Les utilisateurs ont accès au catalogue produit de la Fnac, il leur suffit ensuite de sélectionner des codes produits ou des marques et les résultats des ventes vont apparaître. Il sera facile et rapide de savoir que , par exemple, 100 coffrets Star Wars ont été vendus sur le dernier mois » explique David Bessis,  le fondateur de Tinyclues, ancien chercheur en mathématiques au CNRS. «Le modèle extrait la population correspondante sur laquelle vous pouvez ensuite effectuer un reporting, ajoute le chercheur, et ce afin de savoir à qui s’adresser pour vendre votre produit » Une méthode qui permet donc à la FNAC de procéder à une utilisation intelligente de ses données. Alors que les modèles précédents de ciblage s’appuyaient sur des règles assez simplistes, le modèle probabiliste de Tinyclues se base sur « des règles très fines qui, au lieu de regarder le comportement de l’utilisateur avec une grille de lecture très large en terme de rayon, va regarder le comportement de celui-ci en fonction des articles qu’il a précisément acheté. »

30% de chiffre d’affaire supplémentaire

La start-up apporte donc une réelle plus-value à la FNAC puisque la méthode est extrêmement  sophistiquée et «peut difficilement être mise en œuvre par une entreprise telle que la FNAC qui n’est pas une entreprise de technologie » selon David Bessis, la méthode a prouvé son efficacité puisque Tinyclues a présenté « 30% de chiffre d’affaire supplémentaire pour les campagnes ciblées via tinyclues.». En collaboration depuis 2014 avec le groupe de la FNAC, David s’étonne de la  maturation du marché du Big Data : « Il y a encore un an ou deux, à ce même salon Big Data, il s’agissait pour beaucoup de présenter des projets : c’est-à-dire des actions un peu ponctuelles, expérimentales » Aujourd’hui, Tinyclues travaille en partenariat avec des géants du e-commerce : «Notre premier grand client e-commerçant était un Pure Player historique : Priceminister qui possède une culture de l’innovation extrêmement forte ». David reconnaît néanmoins que certaines industries « sont encore beaucoup en mode projet en ce qui concerne le Big Data ». Néanmoins, cette situation ne devrait pas rester inchangée selon lui : « le fait que des gens comme la FNAC ou d’autres de nos clients comme les 3 Suisses, des entreprises avec un historique de la relation client beaucoup plus ancien et une tradition peut être légitimement plus précautionneuse sur l’environnement data soient prêtes aujourd’hui à utiliser notre solution est un signe que ça évolue ».

Around 50% of the people are happy to share their personal health data with advertisers

Most people are happy to share their personal health data with advertisers – Business Insider.

Wearable devices like smartwatches and fitness trackers might go mainstream this year thanks to the Apple Watch. Even though there are plenty of devices and applications that share personal health data with third parties like advertisers, people aren’t up in arms. In fact, people don’t seem to care much at all.

Based on survey data from ad tech firm Rocket Fuel charted for us by BI Intelligence, the majority of people in a December 2014 survey said they would be comfortable sharing their health and fitness data (56%) and their diet data (56%) to get more personalized advertisements. Less than half of the survey’s 1,262 respondents said they were comfortable sharing their sleep (48%) and mood data (45%).

But here’s the real opportunity for advertisers and brands: Three out of every four respondents said they would be more likely to share their personal data if they received incentives like discounts and coupons.

Tech_COTD new (1) (1) (1)BI Intelligence

Read more: http://uk.businessinsider.com/most-people-are-happy-to-share-their-personal-health-data-with-advertisers-2015-3?nr_email_referer=1&utm_source=Sailthru&utm_medium=email&utm_term=Tech%20Chart%20Of%20The%20Day&utm_campaign=Post%20Blast%20%28sai%29%3A%20Most%20people%20are%20happy%20to%20share%20their%20personal%20health%20data%20with%20advertisers&utm_content=COTD?r=US#ixzz3U2ndUqaG

The Top 10 Big Data Challenges: 2 Technological vs 8 Cultural

The Top 10 Big Data Challenges [Infographic].

This week’s infographic looks at the top 10 challenges organizations face in capitalizing on Big Data, courtesy ofTata Consultancy Services.

big-data-infographic

tweet infographic

The Top 10 Big Data Challenges

1. Cutural: Getting business units to share information across organizational silos

2. Technological: Being able to handle the large volume, velocity and variety of Big Data

3. Cultural: Determining what data, both structured and unstructured, and internal and external) to use for different business decisions

4. Cultural: Building high levels of trust between the data scientists who present insights on Big Data and the functional managers

5. Cultural: Finding and hiring data scientists who can manage large amounts of structured and unstructured data, and create insights

6. Cultural: Getting top management in the company to approve investments in Big Data and its related investments (e.g., training)

7. Technological: Putting our analysis of Big Data in a presentable form for making decisions (e.g., visualization/visual models)

8. Cultural: Finding the optimal way to organize Big Data activities in our company

9. Cultural: Understanding where int he company we should focus our Big Data investments

10. Cultural: Determining what to do with the insights that are created from Big Data

Comment SFR repère ses clients voulant le quitter grâce au Big Data

Comment SFR repère ses clients voulant le quitter grâce au Big Data.

Technologie : L’opérateur au carré rouge analyse le comportement de ses clients en ligne afin d’anticiper d’éventuelles envies d’aller voir ailleurs. La méthode serait efficace puisque les trois-quarts des abonnés contactés renoncent à se désabonner.

Si le Big Data occupe l’esprit de très nombreuses directions informatiques, force est de constater que le retour sur investissement tarde à se concrétiser. Une étude récente de Capgemini Consulting montre en effet les initiatives Big Data ne sont que dans 27% des cas qualifiées de réussites. S’y ajoutent 8% qui n’hésitent pas à parler de franc succès. Pour les autres, les attentes n’ont donc pas été satisfaites.

Du côté des opérateurs télécoms, l’équation semble un peu différente. On a évoqué ici les initiatives d’Orange Business Services qui monétise les données anonymisées de ses clients pour réaliser des produits à destination des spécialistes du tourisme par exemple. Des produits qui commencent à rencontrer un vrai succès.

Chez SFR, on va plus loin encore : l’analyse de données lui permet de faire baisser son taux de churn, c’est-à-dire le poucentage de clients le quittant pour aller chez la concurrence. Le churn est le cauchemar des opérateurs qui cherchent logiquement à retenir le plus possible leurs abonnés.

81% des candidats au départ repérés

C’est au détour d’un dossier compilant de nombreux retours d’expérience de Big Data dans les entreprises, que l’on découvre cette approche, fournie par Sinequa. L’idée est simple : il s’agit d’analyser (donc de surveiller ?) le comportement de ses clients en ligne afin d’anticiper d’éventuelles envies d’aller voir ailleurs.

“Quotidiennement, nous insérons dans Sinequa 20 millions de lignes de logs issus du trafic sur sfr.fr et m.sfr.fr, la version mobile”, précise Olivier Denti, en charge du premier projet Sinequa chez SFR. Le prestataire fournit ensuite des informations ciblées, par exemple sur la durée de la visite, le nombre de pages vues, les domaines visités (Assistance, Mail, Mobiles…), les produits consultés, les mots-clés saisis sur un moteur de recherche Internet ou sur sfr.fr, etc”.

De quoi permettre de repérer ceux qui auraient la tentation de partir, c’est à dire ceux qui consultent beaucoup de pages liées aux résiliations de contrat ou aux offres concurrentes…

Cette surveillance proactive pourrait choquer mais pour SFR, le retour sur investissement est plus que satisfaisant puisque cette méthode permet de mieux repérer les candidats au départ (81% affirme Sinequa) et de les appeler au bon moment, avant qu’ils aient pris leur décision. Et ça marche puisqu’un test mené sur un échantillon de ces personnes a révélé que 75% des clients contactés avant une résiliation restent chez SFR. Soit une économie de “millions d’euros” pour SFR, selon le spécialiste.

Contacté par nos soins SFR ne fait “aucun” commentaire. On peut néanmoins estimer que les concurrents de SFR appliquent les mêmes méthodes pour mieux connaître leurs clients…

AXA’s first data science competition on Kaggle

AXA’s Data Innovation Lab has launched its first challenge on Kaggle, running from 15th December 2014 to 16th March 2015. Based in San Francisco, the startup gathers a community of more than 200,000 data scientists, competing with each other to solve complex data science problems. For AXA, partnering with Kaggle is a unique opportunity to attract the best data scientists in the world.
Join in here: https://www.kaggle.com/

Alors que sa filiale Direct Assurance doit lancer sous peu une offre d’assurance automobile aux primes modulées selon le comportement du conducteur (ce qu’on appelle « pay how you drive »), AXA organiseun concours pour tenter d’affûter ses algorithmes d’analyse de données, avec l’aide des « data scientists » du monde entier.

Première grande initiative visible du « Data Innovation Lab » fondé cette année par la compagnie, la compétition est hébergée sur la plate-forme Kaggle, qui devient incontournable pour ce genre de manifestations (parmi les assureurs, globalement peu nombreux, AllState a régulièrement recours à ses services depuis 3 ans). De la sorte, AXA peut immédiatement capitaliser sur une audience potentielle de plus de 200 000 membres qualifiés, spécialistes de l’analyse de données, issus d’une centaine de pays.

Music Business and Big Data: Next Big Sound estimates potential hits (based on data from Spotify, Instagram, … )

To Make A Chart-Topping Song, Think ‘Slightly Unconventional’ | Spotify Insights.

What makes a hit song? People have been chasing that formula since the earliest days of the recorded music industry, and nobody has found it. One company that tries, Next Big Soundestimates its success rate at picking songs that will soon make the Billboard 200 (based on data from Spotify, Instagram, and other sources) at only 20 percent.

Here’s another prediction: Nobody will ever predict, with total accuracy, which songs will reach the pinnacle of the charts. That is not to say it’s impossible to make a song with a good chance of doing well, or to figure out what kinds of songs are more likely to become hits given listening data, the cultural preferences of the time, and/or the instincts of pro hitmakers.

It’s a tricky thing, as demonstrated by new research into the audio attributes of over 25,000 songs on the Billboard 100 from 1958 to 2013. The trick: To be a hit, a song should sound different from anything on the charts, but not so different that it falls off of the cultural radar of the time.

To decide what makes a song conventional or an outlier, Noah Askin (Assistant Professor of Organizational Behavior at INSEAD, in Paris) and Michael Mauskapf (PhD student in Management & Organizations at Northwestern University’s Kellogg School of Management, in Chicago) used audio analysis from The Echo Nest at Spotify to create a new metric called Song Conventionality (methodology below).

It’s ‘Only’ At The Top

Their graph shows that songs in the top 20 show the least amount of conventionality out of any section of the Billboard Hot 100 over time. The farthest outliers, from a musical perspective (based on audio attributes and genre as described below), are the winners:

Differentiation_Chart1

If a song is too weird, it’s unlikely to make the charts at all, of course; songs at the top of the charts are more similar to each other than stuff from obscure genres of limited (if passionate) appeal.

But within the charts, songs at the top are more likely to sound unconventional than songs in the middle. At the bottom of the Hot 100, we see a bit more deviation from the popular musical conventions of the time, but still nowhere near as much as within the top 20.

Are these findings statistically significant? Yes.

“These graphs are just a descriptive representation of the data; when we run our explanatory models, and control for a host of other effects,” responded Mauskapf. “We find that the relationship between conventionality and chart position is statistically significant (e.g., for songs that appear on the charts, higher levels of conventionality tend to hurt their chart position, except for those songs that are exceptionally novel).“

So ironically, in order for large swaths of the population to connect with a song, it has to sound different from the other stuff that’s popular at the same time. We appear to crave convention, but crave something different most of all.

Unconventionality Reigns Among the Hits

Let’s take a closer look at the very top of the chart, where the same effect can be seen, with a larger effect the closer you get to the coveted Number 1 spot:

Differentiation_Chart2

The top song is the least conventional of the top 10. The top 10 are less conventional than the top 20.

If these results are any indication, if an artist and their people wants to put something out that has a good chance of making it to the very top of the charts, they should make something that stands out from the pack by moving in a different musical direction than everyone else’s releases.

So, the moral of the story: Do something different. What, exactly? That’s the hard part.

(As if on cue, as we prepared to post the article you’re reading now, we spotted an article from Slate about how varied the hits were this year, jibing with this research.)

Researchers’ Summary

From Askin and Mauskapf:

  • “When evaluating cultural products, attributes matter, above and beyond social influence dynamics and symbolic classifications like genre.
  • “Attributes shape performance outcomes directly and indirectly, through a relational ecosystem of cultural products we call ‘cultural networks.’
  • “Songs that are slightly less conventional than average tend to outperform their peers on the charts.
  • “Nevertheless, predicting hit songs is nearly impossible to do, because performance is largely contingent on a song’s relationship to other songs that are produced and released contemporaneously.”

Behind The Scenes

“We used The Echo Nest’s attributes to build a ‘song conventionality’ measure and construct networks of songs for each week of the Billboard Hot 100,” explained Askin and Mauskapf in a summary shared with Spotify Insights. “[The below figure] shows one such network, in which the ‘nodes’ are songs and the ‘ties’ between them represent shared genre affiliations and greater-than-average attribute overlap.”

“Our findings suggest that the crowding of attributes within a cultural network can hinder songs’ movement up the charts.”

Here’s a depiction of one song network they made showing their audio and genre similarities (explanation below):

differentiation3

“The spatial relationship [in the chart above] is a function of both a commonly-used network layout algorithm (Fruchterman-Reingold) and of attribute similarity, such that the greater the distance between two songs–>the more dissimilar those songs are across the Echo Nest attribute space (measured using cosine similarities). Colors represent genres; not surprisingly, songs of the same genre tend to cluster together, and certain clusters(e.g., rock and pop) tend to be more sonically similar than others (e.g., rock and funk.soul). Notice however that some songs do not fit the genre clustering pattern, and act instead as brokers between two or more genres (e.g., Little Latin Lupe Lu).”

For any other music scientists who happen to be reading this, here’s some further background on how this research was done.

“1) First, we used a cosine similarity measure to assess the overall degree of Echo Nest audio attribute overlap for each song pair on a particular chart. Put another way, for each song on every chart, we calculated 99 cosine similarity measures to represent the degree of attribute overlap with every other song on that chart. Cosine similarities vary from 0 to 1, and are a common way to measure “distance” across a multi-dimensional attribute space.

“2) The above measure represents songs’ raw attribute similarity, but two songs that have similar sonic attributes may be perceived differently if they are embedded in different genres. Because listeners’ perceptions of a song’s attributes are likely to be influenced by genre affiliation(s), we wanted to weight each song pair’s cosine similarity by the average attribute overlap of those songs’ “home” genres. To do this, we calculated yearly attribute averages for each genre, and then used the same cosine similarity equation to measure the average attribute overlap of each genre pair. The resulting weights were then applied to the raw similarity measures for each song pair. For example: if one rock song and one folk song had a raw cosine similarity of 0.75, and the average cosine similarity between rock and folk is 0.8, then that genre-weighted cosine similarity for those two songs would be 0.75 * 0.8 = 0.6.

“3) After we had calculated genre-weighted cosine similarity measures for each song pair on each chart, we calculated the mean. The resulting value represents each song’s “conventionality” score for a given week. The higher a song’s conventionality score, the more alike that song is to other songs on the chart.

“The average genre-weighted song conventionality score across Hot 100 songs was a little under 0.8, which suggests that, for the most part, songs that achieve some level of popular success are very much alike. In our analysis, we try to tease apart small variations in this measure to explain why, controlling for the effects of genre, artist popularity, and a host of other factors, some songs tend to do better than others.”

You can contact the authors of this research at m-mauskapf@kellogg.northwestern.edu andnoah.askin@insead.edu.

Most commercially important Digital Marleting Trend for 2015: Content Marketing, Big Data, Marketing Automation – Smart Insights Digital Marketing Advice

Well, it’s already that time of year where it becomes popular to look at marketing trends for the year ahead. Many readers will naturally have been planning and prioritising how you invest in marketing in the year ahead for some time already.

In my article on digital marketing trends for 2015 we asked readers of Smart Insights to vote on what they saw as the most commercially significant trend for their business in the year ahead. We have now had over 600 responses – thanks if you have voted! If you’re still able to share to learn about managing digital marketing, I’d be really grateful if you could complete this more in-depth survey about Managing Digital Marketing in 2015 – there are 5 prizes available and everyone who completes the survey will get a free copy of the final report.

Here are the results of the poll on the biggest trend for 2015.

No surprise that content marketing topped the poll for the third-year running, in fact it was even further ahead compared to previous years since mobile marketing and social media marketing have declined in importance as marketers have implemented these. It’s close for second, third and fourth position. It’s significant that ‘Big Data’ is still in second position although the hype has receded. I think this shows the potential for companies to implement more in data-driven marketing techniques in 2015, which will likely be closely related to marketing automation which is in third place.