Accelerating the Tour de France – a revolutionary viewing experience, powered by Dimension Data

Commencing in July this year at the Tour de France, Dimension Data will partner with A.S.O. to revolutionise the viewing experience of billions of cycling fans across the globe. Both organisations said their common goal in the coming years is to deliver and share the best race information speedily and in real-time with race commentators and the global viewing public.

Starting 4 July, Dimension Data’s Daily Data Wrap will comprise data highlights on the Tour de France riders. Data will include:

  • Stage winner’s top speed, average speed and time per kilometre;
  • Fastest riders up key climbs;
  • Speed of winner at the finish line;
  • Top speed achieved by a rider on the day;
  • Average speed across all riders;
  • Rider that spent the longest at the front of the race;
  • Time between first and last rider; and
  • Many other exciting data statistics uncovered during the three week event

Click here to register for the Daily Data Wrap, and for fans wanting real-time data updates, follow the ASO’s twitter feed on @letourdata.

This major innovation was made possible by Amaury Sport Organisation (ASO) in partnership with the 22 teams participating in the 2015 Tour de France. Highly accurate data will be collected through the use of live trackers under the saddle of each rider. Dimension Data will then process and analyse the data, and make it available to cycling fans, commentators, broadcasters and the media.

When the Tour de France begins on Saturday, the viewing public around the world will be able to follow all 198 riders in 22 teams real-time, and be able to track the speed at which each cyclist is riding, exactly where he’s positioned in the race in relation to other cyclists, and the distance between each rider – all via a beta live tracking website.

Dimension Data’s Executive Chairman, Jeremy Ord, said, “The technology will allow cycling fans to follow the race in ways they’ve never been able to before. Until now it was difficult to understand what was happening outside of what could be shown on the live television coverage. The ability to follow riders, get accurate information about which riders are in a group, and see real time speed are just some of the innovations that will be realised through this solution. During the duration of the three week race, we’ll be rolling out a range of new capabilities, including a beta live tracking website.”

The real time analytics solution will take the data provided by a third party geo localisation transmission component, undertake data cleansing and analysis, and provide access to this data as both a real time data stream, and a historical archive.

Ord said Dimension Data carried out testing during the Critérium du Dauphiné race which was held in France from 7 to 14 June. “We analysed one cyclist cycling at an astounding 104 kilometres per hour. This type of data has not been available in the past.”

All data analysed will be available through a beta live tracking website. This allows fans to select their favourite rider to follow, monitor the race on their phone or tablet (through a responsive design beta website) while they watch it live on the television, and gain access to additional data insights.

The 198 riders in 22 teams will generate 42,000 geospatial points and 75 million GPS readings. In addition, the live tracking website is built to support 17 million viewers and 2000 page requests per second. Data on riders will be processed in Dimension Data’s cloud platform across five continents consuming over 350 000 000 cpu cycles per second.

Brett Dawson, Dimension Data’s Group CEO said there are multiple layers to the innovation required to deliver the solution for ASO. We needed to implement cutting edge technology in the form of advanced real time analytics and a highly contemporary digital platform that’s able to provide innovative insights into the race that have never been available before.

“Dimension Data is bringing a new level of technical capability to the Tour de France in areas that will transform the technology landscape, including internet of things, real time big data analytics, Elastic Cloud Infrastructure, contemporary digital platforms, advanced collaboration technologies, and agile development practices. We’ll be their ‘Technical Tour de Force’.”

Christian Prudhomme, Tour de France Director said, “This top notch technological development will enable a better analysis of the race, highlight the race tactics, and also show how essential in this sport is each rider’s role within his team. It will now be possible to understand how to prepare for a sprint finish in the last few kilometres of a stage, feel the wind’s impact on the rider’s speed, and so much more. Our efforts combined with those of Dimension Data will permanently change the way we follow cycling and the Tour de France.”

From 2016 for the next four years, ASO and Dimension Data will work closely together to extend and enhance the platform to deliver a range of innovative end-user experiences.

Objets Connectés: Explication de la géolocalisation des coureurs sur le Tour 2015 (Source: RTBF)

Pour la première fois sur une course cycliste professionnelle, tous les coureurs engagés au départ du Tour seront équipés de capteurs capables d’envoyer en direct leur position GPS. Grâce au partenariat passé avec Dimension Data, le traitement et l’analyse de ces données permettront aux internautes et aux téléspectateurs de suivre le Tour avec un nouveau regard, plus complet, plus précis. Et l’expérience est appelée à s’enrichir avec les années…

10 ANS DE PREPARATION
Le passionné de cyclisme vit quelquefois une frustration à ne pas identifier avec certitude les différents groupes de coureurs, qu’ils soient échappés ou distancés par le peloton. Les moyens de géolocalisation qui existent et évoluent depuis plus de dix ans ont ouvert de nombreuses options pour obtenir une vision fidèle, en temps réel, de l’état de la course. En charge des systèmes d’information chez A.S.O., Pascal Queirel étudie justement ces questions et se souvient des premiers tests effectués : « En 2004, nous avions déjà placé des émetteurs sur des voitures qui suivaient les coureurs sur le chrono de l’Alpe d’Huez. Puis en 2008, c’est pour le Tour de Picardie que nous avons fait des essais sur les vélos, et un plus grand nombre de coureurs. Mais avec la transmission par GPRS, nous étions exposés à des pertes de réseaux, soit par saturation quand le public est trop nombreux, soit dans les traversées de zones non couvertes ». La possibilité d’acheminer les données par voie satellitaire ayant elle aussi été abandonnée, en raison du poids des émetteurs, c’est par les liaisons HF déjà utilisées par les signaux vidéo que circulent les informations : la première expérience à l’échelle d’un peloton entier a été menée sur Paris-Tours 2013.

LA SOLUTION TECHNIQUE : UN RESEAU MAILLÉ DE CAPTEURS
En pratique, 500 « trackers » ont été conçus et fabriqués pour équiper les vélos du Tour de France 2015. Chacun de ses capteurs, qui pèse 80 grammes, est placé sous la selle d’un coureur  et dispose d’une autonomie de 5 étapes. Il émet un signal par seconde, et envoie sa position GPS par le biais de transmetteurs installés sur 25 véhicules (voitures, motos d’officiels et d’organisation) qui feront office de « puits de remontée », c’est-à-dire dirigeront les données vers l’avion-relais. En zone technique, le dispositif mis en place avec Dimension Data sert à centraliser, traiter et diffuser cette masse d’informations aux techniciens qui les mettent en forme, puis les placent à la disposition du public.

DES INFOS PLUS PRECISES SUR LE WEB, LA TV…
Pour cette première mondiale, l’objectif affiché sera de réunir et d’utiliser avec une fiabilité maximale les données provenant des 198 coureurs du peloton, sachant que les équipes cyclistes ont toutes choisi de tabler sur cette solution d’avenir et d’adhérer à ce projet. Dès lors, une page internet complémentaire de l’appli de tracking déjà existante sur letour .fr sera mise en ligne, avec des suivis de composition de groupes et d’écarts en direct. Des représentations graphiques sont également préparées pour les diffuseurs TV, qui pourront par exemple identifier sur l’instant les coureurs victimes d’une chute. Surtout, la technologie utilisée, qui enregistre toutes les données, rend aussi possible dans l’avenir la reconstitution  de séquences de course (sprints, attaques, etc.), par exemple en 3D. A suivre…

La Fnac s’adjoint l’expertise d’une start-up dans le domaine du Big Data prédictif: Plus value: +30% de chiffre d’affaire

La Fnac s’adjoint l’expertise d’une start-up dans le domaine du Big Data prédictif | L’Atelier : Accelerating Business.

Pour mieux cibler ses clients et optimiser ses ventes, la Fnac a décidé de mieux faire usage des données les concernant. En collaboration avec une start-up, le groupe s’appuie désormais sur un modèle prédictif.

Les start-ups se présentent comme des acteurs majeurs du Big Data, comme l’évoquait Mathias Herberts dans son entretien pour L’Atelier. Des entreprises avec lesquelles les grands groupes doivent impérativement rentrer en collaboration pour accroître leur efficacité et leur rentabilité, selon le fondateur de Cityzen Data. Une logique que le groupe FNAC a intégrée si l’on en croit son travail mené aux côtés de la start-up Tinyclues et présenté lors du salon du Big Data les  10 et 11 Mars dernier à Paris. Cette start-up est à l’origine de la création d’une plate-forme Saas (software as a service) permettant d’établir un modèle prédictif, en se basant sur les données récoltées par l’entreprise. Avec plus de 20 millions de clients et un nombre incalculable de données, la FNAC se devait d’optimiser le ciblage de ses campagnes, et ce en mettant à profit les données produites par les clients grâce au Big Data prédictif.

Un modèle probabiliste

En se basant sur des algorithmes de Machine Learning, la méthode élaborée par Tinyclues permet de cibler les clients beaucoup plus finement qu’avec le dispositifanciennement utilisé par la Fnac. Un ciblage qui permet d’identifier les bonnes cibles pour les campagnes marketing et ceci en un temps record: « Les utilisateurs ont accès au catalogue produit de la Fnac, il leur suffit ensuite de sélectionner des codes produits ou des marques et les résultats des ventes vont apparaître. Il sera facile et rapide de savoir que , par exemple, 100 coffrets Star Wars ont été vendus sur le dernier mois » explique David Bessis,  le fondateur de Tinyclues, ancien chercheur en mathématiques au CNRS. «Le modèle extrait la population correspondante sur laquelle vous pouvez ensuite effectuer un reporting, ajoute le chercheur, et ce afin de savoir à qui s’adresser pour vendre votre produit » Une méthode qui permet donc à la FNAC de procéder à une utilisation intelligente de ses données. Alors que les modèles précédents de ciblage s’appuyaient sur des règles assez simplistes, le modèle probabiliste de Tinyclues se base sur « des règles très fines qui, au lieu de regarder le comportement de l’utilisateur avec une grille de lecture très large en terme de rayon, va regarder le comportement de celui-ci en fonction des articles qu’il a précisément acheté. »

30% de chiffre d’affaire supplémentaire

La start-up apporte donc une réelle plus-value à la FNAC puisque la méthode est extrêmement  sophistiquée et «peut difficilement être mise en œuvre par une entreprise telle que la FNAC qui n’est pas une entreprise de technologie » selon David Bessis, la méthode a prouvé son efficacité puisque Tinyclues a présenté « 30% de chiffre d’affaire supplémentaire pour les campagnes ciblées via tinyclues.». En collaboration depuis 2014 avec le groupe de la FNAC, David s’étonne de la  maturation du marché du Big Data : « Il y a encore un an ou deux, à ce même salon Big Data, il s’agissait pour beaucoup de présenter des projets : c’est-à-dire des actions un peu ponctuelles, expérimentales » Aujourd’hui, Tinyclues travaille en partenariat avec des géants du e-commerce : «Notre premier grand client e-commerçant était un Pure Player historique : Priceminister qui possède une culture de l’innovation extrêmement forte ». David reconnaît néanmoins que certaines industries « sont encore beaucoup en mode projet en ce qui concerne le Big Data ». Néanmoins, cette situation ne devrait pas rester inchangée selon lui : « le fait que des gens comme la FNAC ou d’autres de nos clients comme les 3 Suisses, des entreprises avec un historique de la relation client beaucoup plus ancien et une tradition peut être légitimement plus précautionneuse sur l’environnement data soient prêtes aujourd’hui à utiliser notre solution est un signe que ça évolue ».

The Top 10 Big Data Challenges: 2 Technological vs 8 Cultural

The Top 10 Big Data Challenges [Infographic].

This week’s infographic looks at the top 10 challenges organizations face in capitalizing on Big Data, courtesy ofTata Consultancy Services.

big-data-infographic

tweet infographic

The Top 10 Big Data Challenges

1. Cutural: Getting business units to share information across organizational silos

2. Technological: Being able to handle the large volume, velocity and variety of Big Data

3. Cultural: Determining what data, both structured and unstructured, and internal and external) to use for different business decisions

4. Cultural: Building high levels of trust between the data scientists who present insights on Big Data and the functional managers

5. Cultural: Finding and hiring data scientists who can manage large amounts of structured and unstructured data, and create insights

6. Cultural: Getting top management in the company to approve investments in Big Data and its related investments (e.g., training)

7. Technological: Putting our analysis of Big Data in a presentable form for making decisions (e.g., visualization/visual models)

8. Cultural: Finding the optimal way to organize Big Data activities in our company

9. Cultural: Understanding where int he company we should focus our Big Data investments

10. Cultural: Determining what to do with the insights that are created from Big Data

Comment SFR repère ses clients voulant le quitter grâce au Big Data

Comment SFR repère ses clients voulant le quitter grâce au Big Data.

Technologie : L’opérateur au carré rouge analyse le comportement de ses clients en ligne afin d’anticiper d’éventuelles envies d’aller voir ailleurs. La méthode serait efficace puisque les trois-quarts des abonnés contactés renoncent à se désabonner.

Si le Big Data occupe l’esprit de très nombreuses directions informatiques, force est de constater que le retour sur investissement tarde à se concrétiser. Une étude récente de Capgemini Consulting montre en effet les initiatives Big Data ne sont que dans 27% des cas qualifiées de réussites. S’y ajoutent 8% qui n’hésitent pas à parler de franc succès. Pour les autres, les attentes n’ont donc pas été satisfaites.

Du côté des opérateurs télécoms, l’équation semble un peu différente. On a évoqué ici les initiatives d’Orange Business Services qui monétise les données anonymisées de ses clients pour réaliser des produits à destination des spécialistes du tourisme par exemple. Des produits qui commencent à rencontrer un vrai succès.

Chez SFR, on va plus loin encore : l’analyse de données lui permet de faire baisser son taux de churn, c’est-à-dire le poucentage de clients le quittant pour aller chez la concurrence. Le churn est le cauchemar des opérateurs qui cherchent logiquement à retenir le plus possible leurs abonnés.

81% des candidats au départ repérés

C’est au détour d’un dossier compilant de nombreux retours d’expérience de Big Data dans les entreprises, que l’on découvre cette approche, fournie par Sinequa. L’idée est simple : il s’agit d’analyser (donc de surveiller ?) le comportement de ses clients en ligne afin d’anticiper d’éventuelles envies d’aller voir ailleurs.

“Quotidiennement, nous insérons dans Sinequa 20 millions de lignes de logs issus du trafic sur sfr.fr et m.sfr.fr, la version mobile”, précise Olivier Denti, en charge du premier projet Sinequa chez SFR. Le prestataire fournit ensuite des informations ciblées, par exemple sur la durée de la visite, le nombre de pages vues, les domaines visités (Assistance, Mail, Mobiles…), les produits consultés, les mots-clés saisis sur un moteur de recherche Internet ou sur sfr.fr, etc”.

De quoi permettre de repérer ceux qui auraient la tentation de partir, c’est à dire ceux qui consultent beaucoup de pages liées aux résiliations de contrat ou aux offres concurrentes…

Cette surveillance proactive pourrait choquer mais pour SFR, le retour sur investissement est plus que satisfaisant puisque cette méthode permet de mieux repérer les candidats au départ (81% affirme Sinequa) et de les appeler au bon moment, avant qu’ils aient pris leur décision. Et ça marche puisqu’un test mené sur un échantillon de ces personnes a révélé que 75% des clients contactés avant une résiliation restent chez SFR. Soit une économie de “millions d’euros” pour SFR, selon le spécialiste.

Contacté par nos soins SFR ne fait “aucun” commentaire. On peut néanmoins estimer que les concurrents de SFR appliquent les mêmes méthodes pour mieux connaître leurs clients…

Havas Media Belgique multiplie son expertise « Data »

Havas Media Belgique concrétise son ambition d’être l’agence media « 100% data driven ». A cette fin, John Greca intègre le département Data, Insight & Strategy (2MV) dirigé par Yves Wémers en tant que Data Manager.

John est fort de 10 ans d’expérience dans le monde digital, en agence (DigitasLBI, These Days, KBMG) et chez l’annonceur (Fnac, Mobistar et Belgacom/Proximus). Sa mission consiste à traduire les données digitales en outils d’amélioration du chiffre d’affaires au travers de la mesure de l’expérience client.

Il bénéficie de l’aide de Jessica Michotte (en charge de la gestion de la Data Management Platerform d’Havas Media Belgique : Artemis) et d’un data scientist (à l’arrivée imminente). Sophie Alderweireldt (ex-RMB et CIM) et Vanessa Sanctorum (ex-TNS et Sanoma), toutes deux Insights Experts, continueront à analyser les marques, les marchés et les consommateurs.

La mission de John et de son équipe vise à une meilleure compréhension des cycles d’achats des consommateurs et de l’influence de l’ensemble des canaux de communications sur ceux-ci. Les synergies avec toutes les entités digitales d’Havas Media Belgique (Affiperf, Socialyse et Ecselis respectivement pour le programmatic, le social media et la performance) offrent l’opportunité de qualifier les données produites par les différents canaux. Ces données sont ensuite utilisées dans les différents scénarios de « programmatic buying ».

HavasMediaBelgique_2MV

John Greca (Data Manager) : « Je suis particulièrement heureux de rejoindre Havas Media Belgique où je vois à quel point la volonté d’intégration des différents canaux et le dynamisme vont me permettre de pousser la réflexion Data encore plus loin. »

Hugues Rey (CEO Havas Media Belgique) : « Avec l’arrivée de John nous réalisons notre volonté d’intégrer les effets de l’ensemble des canaux de communications au travers du traitement des données. Cette évolution nous rapproche encore davantage des réalités business de nos clients et nous permet une réactivité accrue. »

Mobile analytics: Extending the reach of customer service to mobile | ITProPortal.com

5 reasons 2015 will be the year of Big Data | ITProPortal.com.

Big data has been one of the biggest trends over the last couple of years. Yet while companies seem to have gained a better understanding of the concept in 2014, there is still confusion about how to unlock its true business potential.

In 2015, I expect to see companies explore, and get to grips with this in a variety of areas. Some of my key predictions for the year ahead include:

SEE ALSO: 6 Google tricks that you probably never knew

1. Security Analytics: The hot topic for fraud detection

Analytics will become a key tool in detecting and preventing advanced threats in 2015. According to Mandiant’s M-Trends report on IT security, attackers spend around 229 days on a victim’s network before they are discovered, almost always using valid credentials, and 67 per cent of victims are notified about the threat by someone outside of their organisation.

As the adoption of connected devices grows and data becomes more interlinked, threats and their ability to spread quickly will be more pronounced. Data analytics will therefore be used more proactively to spot unusual event patterns, or anticipate what these patterns might be and set up alerts to escalate them to the right people so they can be solved before they make a major impact.

The fast moving nature of fraud does however mean that patterns are constantly changing and new ones will emerge, so writing rules into software simply isn’t enough. IT and security teams will need challenge themselves to constantly ask new questions of their data and ‘think like a criminal’ about how they would breach a system.

 2. Hadoop: From data store to valuable data insight

Despite accelerated adoption of Hadoop in EMEA in recent years, driving value from the data stored in Hadoop is a time consuming and expensive process that requires experienced data scientists. In 2015 however, analytics on Hadoop and elsewhere will become easier to use and accessible to anyone in a business regardless of their job role and technical know-how.

Self-service analytics, will mean that anyone within an organisation will be able to gain business insight from Hadoop in real-time, opening an organisation’s data to an entirely new audience.

The number and type of organisations looking to “test the waters” with Hadoop will also increase as managed/cloud services make this an affordable option.  The rise of PAYG (pay as you go) pricing plans with providers such as AWS, for example, means the initial investment in terms of software, infrastructure and skills can be minimised.

Companies will therefore have the freedom to experiment with Hadoop through “Big Data as a Service” to demonstrate ROI and evaluate the possible return of a bigger investment. This could also apply to departments within an organisation that opt for a DIY approach rather than relying on IT teams.

big data, hilarious, 2015 predictions

3. IoT: An evolution from “connected toothbrushes and Fitbits” to industrial data

In 2015, the conversation around IoT will extend beyond consumer devices to the disruption in traditional ‘bricks & mortar’ industries like building, manufacturing and transportation.

Manufacturing, for example, is increasingly benefitting from the combination of IoT and big data. By linking up sensors and robotics to automate processes, manufacturers are becoming more efficient, while also generating a massive amount of ‘machine data’ which can be indexed, monitored and analysed to provide real time problem solving, machine health monitoring and cost avoidance.

An example in transport is New York Air Brake which is using Splunk Enterprise to save up to $1 billion in fuel and other costs on U.S. railroads. As a leading supplier of braking systems and components, simulators and control systems to the train industry, the company uses real time analytics of data collected from train tracks to define the best driver strategies.

This might range from warning an engineer to back off the throttle five per cent to increase fuel efficiency, or alerting an engineer that gravitational forces threaten to create a dangerous situation a few miles down the track.

4. DevOps: Developer and IT Operational Analytics

In 2015, growing numbers of organisations will be using analytics around DevOps (IT Operational Analytics) to drive software quality and deliver what customers are looking for.  For example, when releasing a new web add-on, mobile app, or feature, companies can analyse the data generated as customers interact with it, to measure performance, identify issues and improve / refine the tool.

As a result software products will get to market faster and be driven by customer feedback and adoption analytics. This process can also drive operational intelligence in other areas that will be fed into overall business decisions.

5. Mobile analytics: Extending the reach of customer service to mobile

According to ComScore, more than 60 per cent of consumers’ time spent online with retailers is on a mobile device. The mobile app is therefore becoming as valuable as the website for omnichannel retailers, and a necessity in building a 360 degree view of the customer.

Ensuring customer experience is as good on mobile applications as it is online will therefore become essential in 2015, and securing transactions will be mission critical. Analytics will play a pivotal role in both, helping retailers tailor the customer journey for mobile and spot unusual event patterns that could suggest potential security threats. DevOps will also be central to ensuring quality of releases and the application delivery lifecycle using mobile Application Performance Monitoring (APM).



Read more: http://www.itproportal.com/2015/01/07/5-reasons-2015-will-year-big-data/#ixzz3QTmMUziE

How Big Data Will Impact the Super Bowl

How Big Data Will Impact the Super Bowl.

B_SuperBowlBigData

It’s almost time for the big game–the one and only, Super Bowl.

As diehard and casual fans alike pick up the snacks and set up the living room for their Super Bowl parties, sports experts are spending hours on end pontificating on the minutiae of the tiniest details happening on and off the field, all in an effort to predict the winner between the Seattle Seahawks and the New England Patriots.

Meanwhile, even those people who admit they don’t care about football will be anxiously awaiting Super Bowl Sunday, if not for the game, then for the commercials. This late January, early February tradition has been around for decades now, but we might just be on the verge of seeing a major disruption in how things are done.

The talk now, at least among certain circles, is slowly moving toward a topic not normally associated with the Super Bowl: big data.

And while most fans may not notice the difference, big data has the potential to change the Super Bowl experience.

One of the favorite pastimes in all sports, not just the NFL, is to predict the outcome of each contest. Most of this is done all in good fun, but some people look at the practice as serious business; and nothing represents the pinnacle of sports achievement quite like the Super Bowl. Predicting a Super Bowl winner is far from an easy task, especially when both teams are so evenly matched, but many experts have turned to big data in the hopes it can provide added insights on game outcomes.

In the average football game, there are numerous statistics that sports analysts have to keep track of, from individual player performances to overall team stats. Big data can go even further, measuring things like total distance traveled, effect of weather conditions on individual plays, and comparisons between different player matchups. It’s essentially taking statistic analysis to the next level, which can, in turn, reveal new details that might otherwise go overlooked by even the most veteran sports pundits.

From all these different stats and figures, big data algorithms can be created to come up with an eventual winner in any game. The challenge to create the most accurate algorithm is one that many businesses and institutions have taken up.

One company, Varick Media Management, created their own Prediction Machine that boasted a 69 percent accuracy rating during the 2013-2014 NFL regular season as well as an impressive record for other championship games. SAP also uses an algorithm based on the NFL’s public statistics database, while Facebook tries to predict a winner from an analysis of social media data. Even though these algorithms take into account a lot of data, the results are far from being 100 percent accurate.

After all, while Varick Media Management accurately predicted the Seahawks would win last year’s Super Bowl, both SAP and Facebook predicted a Denver Broncos victory.The end result was a Broncos’ blowout loss.
Going beyond sports analysis and even the big game, big data may have a big impact on the thing many fans anticipate most: the commercials.

In fact, the commercials may be even more popular than the Super Bowl, itself. According to big data collected through social media listening tools, experts were able to get a picture of what people talked most about before, during, and after the Super Bowl. Based on social media conversations from last year’s championship game, it becomes clear that most people prefer to talk about the advertisements over the actual game.

Interestingly enough, the data also indicates most talks about the Super Bowl happened after the game was over. Based on these findings, experts are saying companies may start rethinking their advertising strategy, viewing online advertising as even more effective than running a Super Bowl commercial. Super Bowl ads cost millions of dollars; and research seems to show that only about 20 percent of those adslead to more products sold.

Instead, the idea is that with big data, companies will be able to reach more customers through their mobile devices, which is more important than ever as businesses and employees look at bring your own device (BYOD) polices and other advantages. Big data, essentially, represents a unique business opportunity that can create more targeted advertising featuring more better engagement, making it a better return on investment than airing during the most watched event on television.

The Super Bowl remains an exciting game that tens of millions of people around the world enjoy, but many aspects of the game are likely to change as we move into the era of big data. Whether it comes in predicting the most likely winner or how advertising is handled, big data could have a significant impact, even if most of it is behind the scenes.

In the meantime, fans can still watch some of the world’s best athletes compete at the highest level.

Shazam compagnon idéal de la pub via la réalité augmentée et les objets connectés

Shazam a de grandes ambitions, et elles dépassent largement le simple domaine de la reconnaissance musicale. Le service cherche à devenir en effet le compagnon « idéal » de certaines publicités et se rapprocher davantage des commerçants, en proposant par exemple des expériences de réalité augmentée.

De la musique à la publicité

Tout le monde ou presque connait Shazam, une petite application pratique permettant de reconnaitre facilement quelle musique est en train d’être écoutée. Si vous êtes par exemple dans un magasin et qu’une chanson sort des haut-parleurs, Shazam vous en donnera le titre, l’artiste, l’album dont elle est extraite et ainsi de suite. Le résultat est toujours accompagné de liens vers iTunes et autres boutiques, ainsi que quelques services de streaming comme Spotify et Rdio. Et le succès serait au rendez-vous puisque Shazam compterait pour 10 % de la musique achetée selon l’entreprise. Toutefois, en l’absence de détails sur la manière dont le chiffre a été calculé, on le prendra avec les pincettes de rigueur.

Mais elle ne compte justement pas s’arrêter là. Elle tient à faire de son service une porte vers des contenus supplémentaires en fonction d’un contexte particulier, essentiellement pour compléter la publicité. Certaines sociétés se sont déjà associées à Shazam et il suffit par exemple de dégainer l’application pendant que la publicité passe à la télévision pour obtenir des informations, à la manière finalement d’un QR-code audio. Il s’agirait donc d’un renforcement de cette activité puisque des essais ont déjà été faits dans ce domaine, notamment la publicité pour La Halle avec Jenifer.

The Next Web a pu interroger Rich Riley, PDG de Shazam, à ce sujet.  Les projets de l’entreprise sont nombreux pour cette année mais concernent avant tout le renforcement du service autour de la publicité. Les développeurs travaillent par exemple sur un « Shazam visuel » permettant de relier l’application à une expérience de vente dans des boutiques physiques, pour obtenir des coupons de réductions ou autres.

Fournir un contenu en fonction du contexte

Même la réalité augmentée est au programme. Au CES de Las Vegas, le PDG a ainsi fait la démonstration d’une publicité pour une Jaguar dans un magazine papier. En scannant la page, Shazam reconnait le contenu et propose automatiquement une expérience 3D à 360°. Il suffit alors de déplacer son téléphone pour observer l’habitacle du véhicule, comme si l’on se trouvait à la place du pilote.

On notera que ce type d’interaction existe déjà, comme Ikea l’a montré avec son catalogue depuis août 2013. La différence ici est que Shazam cherche à fédérer autour de sa plateforme les sociétés qui pourraient être intéressées par ce type d’expérience, en offrant un accès via l’une des applications mobiles les plus utilisées.

Shazam a également des ambitions dans le domaine des objets connectés et des « wearables ». Idéalement, l’application serait assez petite et économe en ressources pour pouvoir être utilisée sur des montres et autres, afin par exemple de pouvoir accéder à des contenus par simple pilotage vocal. Une fonctionnalité que l’on retrouve déjà avec Siri, Google Now et Cortana et il faudra voir comment Shazam compte se démarquer. De même, l’entreprise travaille sur des balises, nommées Shazam-In-Store, capables de fournir du contenu Shazam en fonction de l’endroit où l’utilisateur se tient dans un magasin.

Tout cela suppose évidemment des transferts de données et un stockage d’informations concernant l’utilisateur, même si elles ne sont pas nominales. À la lumière de toutes les attaques sur les deux dernières années, on peut donc se poser la question de savoir comment Shazam compte gérer la sécurité de l’ensemble. Rich Riley n’a cependant pas été prolixe sur le sujet, indiquant simplement que des mesures de protection avaient été prises, et que les données n’avaient pas vocation à transiter vers d’autres entreprises.