Comment le Big Data a envahi les hypermarchés, High tech

Source: Comment le Big Data a envahi les hypermarchés, High tech

Les grandes enseignes multiplient les expérimentations entre rachats de start-up et créations d’incubateurs. De nombreuses start-up de la tech se spécialisent dans l’analyse de données pour les hypermarchés.

Carte de fidélité, paiement mobile, chariot connecté… Souriez, vous êtes fichés ! Depuis toujours, les hypermarchés collectent et traitent des données. Mais aujourd’hui, celles qu’ils recueillent sur les consommateurs sont de plus en plus précises et leur analyse devient une arme stratégique majeure pour donner la réplique aux Amazon et autres géants de l’e-commerce dont, on leur annonce tous les jours qu’ils vont leur tailler des croupières.

C’est évident : l’avenir des hypers passe par le Big Data (mégadonnées). « Amazon vient concurrencer Auchan et Carrefour avec de nouvelles armes, comme le traitement des données, que ces enseignes traditionnelles doivent s’approprier », clame Yves Marin, directeur chez Wavestone.

Campagnes publicitaires plus efficaces

La route est longue. Un seul chiffre : l’américain Walmart, numéro un mondial de la distribution, a généré l’an dernier un chiffre d’affaires de 13,7 milliards de dollars sur Internet, contre… 107 milliards pour Amazon, dont l’un des points forts réside aussi dans son système de recommandation. Ce n’est pas pour rien que Walmart a annoncé mardi mettre 3 milliards de dollars sur la table pour racheter Jet.com , un concurrent de la firme de Jeff Bezos.

La grande distribution a commencé à se mettre au pas. Les expérimentations se multiplient : rachats de start-up, créations d’incubateurs ou investissements en matériels et logiciels… Walmart s’est ainsi offert la société Kosmix pour monter sa propre infrastructure d’étude en temps réel des données.

Auchan Retail Data, l’entité du français Auchan qui gère les données, a quadruplé ses effectifs en un an (40 personnes). « La nouveauté avec le Big Data, c’est que l’on peut personnaliser la relation client à une très grande échelle. Avant, on s’adressait à un segment de clientèle. On est aujourd’hui dans une relation de one-to-one grâce aux capacités de calcul », affirme Olivier Girard, son directeur. Ainsi les bons de réduction susceptibles de vous faire craquer arrivent par miracle sur votre page de navigation et dans votre boîte aux lettres ou mails. Les campagnes publicitaires deviennent plus efficaces. « On constate jusqu’à 40 % d’augmentation des ventes avec notre régie Imédiacenter », note-t-il.

Un terrain fertile pour les start-up

Certains, comme Leclerc font appel à des « data scientists », très en vogue chez les géants du Web. L’enseigne fait aussi appel aux start-up, sans forcément les racheter. « Il suffit qu’un acteur de type Amazon sorte une innovation pour que des technologies qui ont à peine quelques mois deviennent obsolètes. Dans ce cadre, investir ses propres billes à long terme est une prise de risques beaucoup trop importante ! » justifiait l’an dernier Michel-Edouard Leclerc, patron du groupe, dans « L’Usine digitale ».

Des jeunes pousses ont ainsi fleuri dans des domaines très pointus. « Il n’y avait aucun moyen de mettre en relation les données d’une personne à la fois cliente en magasin et en ligne. Notre société est capable de les associer pour améliorer les interactions avec les clients », explique Vihan Sharma, directeur général de Liveramp, une entreprise américaine qui a Carrefour pour client et qui s’est lancée dans l’Hexagone il y a un an. Elle traite 20 milliards de profils par mois environ en France, au Royaume-Uni et aux Etats-Unis.

« Le temps, c’est de l’argent »

A terme se profile la possibilité de monétiser les données aux clients : c’est déjà une source essentielle de revenus chez Cdiscount. C’est un enjeu pour les grandes surfaces. Pour l’heure, elles cherchent surtout à affiner le data. « Auchan commence à utiliser des données issues de l’open data, c’est-à-dire celles ouvertes et accessibles à tous sur Internet comme la météo et le trafic routier », pointe Olivier Girard. Quant aux données des réseaux sociaux : « Nous les utilisons peu par peur de se disperser. Ce n’est pas notre priorité aujourd’hui. » Le temps, c’est de l’argent.

« La clef est de nous adapter au gros volume de données qui va nous arriver. Il faut être sûr que ce ne soit pas une source de perte de temps et d’inintelligence, expliquait récemment Georges Plassat, PDG de Carrefour, au Salon Viva Technology. « Nous évoluons vers une manière plus prédictive de servir le consommateur mais honnêtement si nos clients ont besoin, dans le futur, d’un indicateur sur leur réfrigérateur indiquant qu’ils ont besoin de lait, il faut que l’on s’inquiète. »
En savoir plus sur http://www.lesechos.fr/tech-medias/hightech/0211205079169-comment-le-big-data-a-envahi-les-hypermarches-2020715.php?ve2ZCphffSmulXAh.99#xtor=EPR-12-%5Btech_medias%5D-20160816-%5BProv_%5D-2159277%402

Big Data: How Valuable Is Your Marketing Data?

Source: Big Data: How Valuable Is Your Marketing Data?

Research from Dun & Bradstreet’s B2B Marketing Data Report 2016 has revealed gaping holes in B2B marketing databases. In a study of 695 million records in B2B companies’ databases, inaccuracies were found in over 70% of the records.

  • 87% lacked revenue information
  • 86% had no employee information
  • 82% had no website information
  • 77% were missing industry information
  • 62% did not contain phone numbers
  • 45% were missing contacts job titles

The following are some of the primary reasons that you should prioritise clean data over big data to optimise the value of your sales leads.

Focus on Selling

So much time is wasted in organisations looking for the right data.

When your sales reps are equipped with thorough, clean data, they can focus their time on converting prospects into buyers. In contrast, it takes time to work through the issues created by bad data.

The same can be said for marketing departments when they are trying to guide customers down the sales path, or creating customer loyalty programs.

Imagine a rep opening a contact profile in a database and realising that a digit is missing on the phone number or an important line is missing on an address.

These missing items impede the rep’s ability to optimise his workflow and begin the selling process. The distraction also takes away from your team member’s focus on optimising presentation and closing stages.

58% of Chief Marketing Officers (CMOs) say email marketing, search engine optimisation (SEO), search engine marketing (SEM), and mobile are the main areas that big data is having the largest impact on their marketing programs.

image: http://cdn2.business2community.com/wp-content/uploads/2016/08/Big-Data-Impact-for-a-CMO.jpg.jpg

big-data-marketing

Source: Big Data and the CMO: What’s Changing for Marketing Leadership?

More Targeted Appointment Setting

Clean data is more useful in landing appointments with high-potential buyers. It is difficult for a person to make targeted prospecting calls when profiles are incomplete or inaccurate. A smaller amount of high-quality sales leads improves targeting capabilities.

With quality data, reps can better detect which contacts offer the right opportunities to sell the right solutions. Having in-depth information on B2B buyers is especially important, as your reps need the ability to tailor messages to specific interests.

In another study of 50,000 US and international marketing, sales and business professionals Ascend2 discovered that:

“35 percent of those surveyed said the biggest barrier to lead generation success is the lack of quality data.”

Save Time and Money

The efficiency with which reps can connect with top decision makers and sell is much lower with bad data. Instead of investing the majority of time preparing and delivering sales messages, reps are taking the time to sort through problematic prospect details.

With clean data, you eliminate wasted steps that cost your organisation significantly.

image: http://cdn2.business2community.com/wp-content/uploads/2016/08/sales-leads2.jpg.jpg

Sales leads

Better Results and Financial Performance

Most importantly, clean data gives your team the best opportunities to optimise conversion rates, selling cycle times and average deal sizes.

Think of this scenario as similar to a doctor going into a waiting room after reviewing a patient’s file. The more thorough and accurate the nurse’s notes, the greater the doctor’s ability to effectively and efficiently detect and resolve a patient’s health problem.

Better sales results drive optimised financial performance as well. It is easier to forecast sales accurately, which enables you to better align budgets with revenue projections.

Conclusion

Big data doesn’t do much good if all you have is a cesspool of problems. However, ample data that is clean and useful is of tremendous value to your team. Internal Results has expertise in data acquisition.

We maintain accurate data on over 61 million decision makers in more than 20 countries. Over 500,000 records are updated every month to ensure they are clean and accurate.

Whether you are looking at entering new markets, or geographical territories, contact us today to discuss why our expertise in clean data is a perfect match for the sales skills of your organisation.
Read more at http://www.business2community.com/brandviews/internal-results/big-data-valuable-marketing-data-01621555#u4gesLukXskfSDQW.99

Ce que fait Axa pour ne pas être “ubérisés” (Source: BFM)

Anticiper l’inévitable disruption à venir dans l’assurance – Axa investit 100 millions d’euros dans Kamet, un véhicule inédit à ce jour dans l’industrie. Mais ce n’est pas la seule initiative de la compagnie. Explications.

Source: Voilà ce que nous faisons chez Axa pour ne pas être “ubérisés”

Comme de très nombreuses industries, l’assurance est à l’aube d’une révolution majeure, probablement la plus importante depuis son origine. L’explosion des objets connectés liée au développement exponentiel des technologies mobiles, l’évolution des modes de consommation (économie du partage, économie du “on-demand”,…), mais aussi les opportunités offertes par le “Big Data” en termes d’analyse du risque et d’anticipation des comportements et des événements, ouvrent d’immenses opportunités en matière de prévention et de gestion des risques.

Dans 10 ans, l’assurance aura un visage très différent de celui d’aujourd’hui. Les besoins et attentes de protection des individus et des entreprises ne disparaitront pas du jour au lendemain. Bien au contraire, le monde qui nous entoure fera plus que jamais courir des risques. Mais la façon de répondre à ces besoins, notamment par les sociétés d’assurance, va fortement évoluer. Il est probable également que de nombreux acteurs non “assureurs”, existants ou nouveaux, imagineront et développeront des produits et services concurrents, voire radicalement différents, de ceux offerts aujourd’hui par les acteurs établis.

Nous avons compris très tôt que digital et big data allaient profondément changer ses métiers (assurance des biens, assurance des personnes, assurance de la santé, épargne et gestion d’actifs). Depuis plusieurs années, un plan massif de transformation a ainsi été engagé sur l’ensemble des métiers et régions couverts par Axa.

60 spécialistes analysent les données

Nous avons développé plusieurs initiatives globales visant à aider et accélérer les efforts des équipes opérationnelles. Un “Data Innovation Lab” (DIL) a été créé à Suresnes et rassemble une soixantaine de data scientists qui travaillent avec les entités opérationnelles sur la mise en place d’initiatives autour du big data. Le DIL double de taille chaque année et vient d’étendre ses équipes à Singapour afin d’être encore plus proche de nos entités asiatiques. Deux “Axa Lab” ont également été créé, l’un à San Francisco et l’autre plus récemment à Shanghai. Véritables têtes chercheuses, ces équipes sont au plus près des écosystèmes d’innovation, identifient des nouveaux modèles et mettent en relation start-up innovantes et équipes opérationnelles d’Axa à travers le monde.

Nous avons également créé un fonds d’investissement, Axa Strategic Ventures, doté de 200 millions d’euros et dédié aux start-up de l’InsureTech. Il leur apporte des financements via des prises de participation minoritaires, soit très tôt dans leur cycle de vie (early stage/seed), soit plus tard afin de financer leur croissance et internationalisation (growth stage). Ce fonds a déjà effectué une douzaine d’investissements et est maintenant en mesure d’opérer sur la majeure partie du globe.

Financer les start-ups pour découvrir les Uber et AirBnB de l’assurance

Toutes ces initiatives visent à permettre aux différents métiers d’Axa de se moderniser en utilisant au mieux ce que les technologies permettent de réaliser afin de mieux servir clients, distributeurs, partenaires et collaborateurs.

En complément des nombreuses initiatives mentionnées ci-dessus, il est progressivement devenu clair que des modèles encore plus “disruptifs”, à l’image de ce que Uber ou Blablacar ont rendu possible sur la mobilité, AirBnB sur le logement et l’hébergement, Lending Club sur le prêt à la consommation, allaient immanquablement voir le jour dans le monde de l’assurance. Et il y a fort à parier que ces nouveaux modèles seront en grande majorité imaginés par des start-up.

Axa a donc décidé de financer – dans une logique industrielle (et non financière ou d’investissement) – une plateforme qui aura pour mission de développer des modèles disruptifs d’assurance. Ce concept, parfois appelé “Start-up Studio”, vise à créer un écosystème d’entrepreneurs en résidence, un vivier de savoir-faire technologiques afin d’initier des idées, les prototyper et en faire des sociétés qui seront co-dirigées par Kamet et l’équipe de fondateurs.

Kamet pourra construire des modèles concurrents des modèles d’affaires existants du Groupe Axa, car l’objectif est bien de ne pas laisser à d’autres le soin de nous devancer ou “disrupter”. Cette structure sera indépendante d’Axa et fonctionnera comme une start-up tout en ayant la capacité soit de s’appuyer sur les savoir-faire des équipes internes, soit de s’allier stratégiquement avec des partenaires externes pour mettre au point des modèles innovants. La mission est ambitieuse. Bien exécutée, elle devrait nous permettre de réussir notre transformation numérique et conserver notre place de marque leader dans le secteur de l’assurance.

Data est digital et digital est data. Le chaînon manquant dans « la maladie de l’Europe » de Guy Verhofstadt (Ivan Vandermeersch, Secrétaire général BDMA)

Par Ivan Vandermeersch, Secrétaire général BDMA

“Cher Monsieur Verhofstadt,
Cher Guy,

Il faut bien le dire, la salle Henri Lebœuf était comble aux Bozar et comme toujours tu passionnais ton audience. Avec ferveur et assertif comme toujours. Le visionnaire des grands jours. Quelque part tu as décidé que l’Europe doit changer et va changer. Ce n’est pas la première fois dans ta vie que tu te mets à abattre des murs avec tes poings nus. Puis vint la cession de signatures. Et bon, soit, à un moment où la file n’est pas encore trop longue je fais signer mon exemplaire. Dans notre relation qui oscille depuis 40 ans entre la sympathie et le bougon et qui n’est jamais neutre tu poses la question : « Pour Ivan ? C’est bon ? ». Je te réponds : « fais comme tu veux ». Après avoir constaté que tu écris encore toujours mon nom avec un « Y » au lieu d’un « I » je te dis avant de te quitter : « je commence à lire le chapitre qui commence à la page 117 ». Et je l’ai fait. Et me voilà en plein désert digital.

C’est vrai, il faut un cadre juridique unique avec un régulateur unique au lieu d’un tissu disparate de 28 unités. Qu’on est dans une constellation de 28 pays ont leur mot à dire. Et c’est vrai que là se trouve différence avec les États-Unis qui fonctionne sur base d’une réglementation pour couvrir tous ses Etats. Effectivement, pas étonnant que des 25 grandes sociétés d’Internet 15 qui ont leur siège aux États-Unis et seulement une seule en Europe. Et que tout ce que tu cites dans ce passage peux impacter 900.000 emplois en Europe. Que le morcellement européen tue l’innovation.

Mais il y a plus. Quand on prononce le mot digital automatiquement le concept « données » s’y attache. Big Data. 90% des données mondiales ont été créées pendant ces deux dernières années. Depuis que la première version de la proposition de régulation sur la protection des données a été émise par la Commission Européenne le 25 janvier 2012. Avec les pouvoirs publics, les entreprises et les citoyens comme utilisateurs de données. La quantité de données croît de façon exponentielle, venant de partout. Nous les créons surtout nous-mêmes par nos interactions avec l’Internet. Ces données contiennent des informations très détaillées sur nos intérêts, réseaux, habitudes et comportements individuels. Il s’agit d’un flux rapide et continu générant de grandes quantités de données. En temps réel, pour ainsi dire.

Cela permet aux entreprises d’amorcer la production de produits hautement personnalisés et le consommateur prend part au processus de production en spécifiant ses exigences de conception. A travers des sites e-commerce, via les centres d’appels. Un nouveau canal de production a vu le jour. Et demain tu pourras virer ton fidèle chauffeur Gaétan. Ce sera en «voiture Google », sans chauffeur, que tu feras tes trajets commandé par ton téléphone mobile. « Data driven ». Littéralement. L’économie se repose donc de plus en plus sur les données. On ne peut plus évoluer à contresens.

Il y a un enjeu majeur pour les entreprises en ce qui concerne la transparence dans la relation avec le consommateur ainsi que pour les gouvernements celui de respecter les droits fondamentaux et les libertés des citoyens. Le développement économique allant de pair avec les intérêts des consommateurs. La politique devant être la garante des libertés civiles.

La protection de la vie privée n’est plus uniquement une question de protéger, mais devient également un défi en termes d’offrir des opportunités. Parce que notre économie est aujourd’hui une de ces données. Et effectivement, sur base d’une législation harmonisée applicable de la même façon dans tous les pays européens. Ou l’on trouve le juste équilibre entre autoriser et interdire. Comme Angela Merkel le disait au congrès digital de la CDU en septembre dernier : « Les données sont la matière première de l’avenir… Dans l’avenir, la valeur ajoutée ne sera plus principalement générée par la fabrication d’un produit, mais surtout grâce à l’utilisation des données des clients… Si nous ne permettons pas d’établir des relations avec des consommateurs correctement, une partie substantielle de la valeur ajoutée sera perdue »

La proposition de Règlement Général sur la Protection des Données qui est en discussion au trialogue contient 23 « delegated acts », mais surtout, il y a sur la table des négociations bon nombre de provisions dont l’application serait laissée à l’appréciation de chaque Etats Membres. Ceci va totalement à l’encontre de ton souhait d’harmonisation de notre vieux continent qu’on appelle l’Europe et ne va pas donner un souffle à notre nouvelle économie digitale. Un grand défi reste de trouver l’équilibre entre permettre et interdire. Un enjeu principal parce que notre économie digitale se base sur les données afin de pouvoir concurrencer avec tout ce que existe hors des limites de notre petite Europe. Je te conseille vivement d’aller prendre le thé chez Angela Merkel.

Ivan Vandermeersch”

How Artificial Intelligence is Changing the Face of eCommerce Industry

Source: http://www.iamwire.com/2015/09/artificial-intelligence-ecommerce-deep-learning-machine-learning/123423

September 26, 2015 by

source

eCommerce is one dynamic sector that has revolutionized the way a consumer shops for goods and services in a mobile world. The basic goal of every eCommerce company is to bring the best of offline shopping experience to the online space, by offering the consumers a seamless way to discover the products they are looking for.

The avenue is taking a big leap towards becoming the facilitator of a more efficient, personalized, even automated customer journey with the introduction of cognitive technologies and the employment of ‘smart data’. Today, the most important area of focus in eCommerce is hyper personalization which could be facilitated only by learning consumer behaviour and making predictive analyses with the help of the huge amount of data collected from user activities on smartphones, tablets and desktops, and intelligent algorithms to process them.

Machine learning and artificial intelligence are no more restricted to personal assistance technology, smartphone companies are creating. They have flouted these conventions to disrupt a much wider space with limitless possibilities. One of the areas radically transformed by AI is eCommerce.

AI in eCommerce is Already Moving Forward

Following are a few key areas in eCommerce which can be transformed by the application of Artificial Intelligence, some of them are already in existence-

Visual Search and Image Recognition

(Image Source)

It is an AI driven feature that enables users to discover what they want at the click of a button. All one has to do is, take a picture of what one likes and put it on the search bar of the eCommerce platform. The engine would then search through all the possible matches, rank them and prioritize them before placing the options before the user.

Product Recommendation

Recommendation is widely practiced by eCommerce companies to help customer find the best of what they are looking for. Recommendation algorithms work in multiple ways. For example, Amazon.com recommends its users depending on their activities on the site and past purchases. Netflix recommends DVDs in which a user may be interested by category like drama, comedy, action etc. eBay on the other hand collects user feedback about its products which is then used to recommend products to users who have exhibited similar behaviours. And this continues to evolve with several permutations and combinations in place.

Intelligent Agent

At present, Intelligent Agent negotiation system has become a popular tool used in eCommerce with the development of artificial intelligence and Agent Technology. The three main functions performed by this automated agent are:

  • matching buyers and sellers (determination of product offerings, search of buyers for sellers and sellers for buyers, price discovery)
  • facilitating transactions (logistics, settlement, trust)
  • providing institutional infrastructure (legal, regulatory)

These agents are fully automated and have control over their actions and internal state. They interact via an agent communication language. Further, they not only act in response to their environment but are also capable of taking initiatives like generating their own targets and act to achieve them.

Assortment Intelligence Tool

Consumers are forcing retailers to alter pricing strategies, so it is imperative for multichannel retailers to be flexible with their price structuring in order to retain their customers. To do the same, they are employing Assortment Intelligence, a tool that facilitates an unprecedented level of 24/7 visibility and insights into competitors’ product assortments. Retailers can keep a tap on their competitors’ product mix, segmented by product and brand, percentage of overlap, which gives them the ability to quickly adjust their own product-mix and pricing with high accuracy.

Voice Powered Search

In December 2014, Baidu unveiled speech recognition technology dubbed “Deep Speech.” Although the technology is still nascent, once it is developed optimally, it can make shopping literally interactive, enabling the customer to have a real time seamless voice conversation with the virtual shopping assistant on the eCommerce platform.

Employment of AI in Indian eCommerce

In case of India, eCommerce biggies like Flipkart, Snapdeal and Amazon are proactively investing fortunes in AI research and development. Apart from intelligent chat facilities, these companies have introduced image recognition feature to their platforms which is attributed to deep learning.

According to Sachin Bansal, CEO, Flipkart, artificial intelligence is a key differentiator in the fiercely competitive business of online retail. He believes, “the big disruption that is happening across the world is the rise of artificial intelligence.” Therefore, by combining social, mobile, big data analytics and AI, Flipkart attempts to build human brain-like capabilities to sell smarter to its more than 45 million registered online buyers. Recently, the company launched its messaging service on its app, called Ping. It serves as a shopping assistant embodying artificial intelligence, to help users easily discover the item they are looking for on its platform.

Likewise, Flipkart has just announced that it is working on automating its supply chain to reduce shipment time and increase accuracy to ensure zero customer complaint. Confirming the news, Adarsh K Menon, VP, Business Development said, “We want to use data smartly and intelligently at our backend for personalisation in customer offerings, service offering, supply chain offerings. We have regular customer base of 45 million. We will use technology, look at buying behaviour and preferences of customers and then personalized our offerings. If we use data, which is available with us, intelligently, we will be able to give best shopping experience to customers”.

Further, Flipkart owned Myntra is too is reportedly set to introduce apparels designed with the help of data science and artificial intelligence. The company has developed a smart bot that accumulates fashion-related information from across the online world by crunching a large amount of data centered around consumer demand in real time. Commenting on the same, Ganesh Subramanian, head of new initiatives at Myntra, maintained, “There is a big, emerging trend among internet companies which have accumulated tons of data to use it for personalization. Our platform is disrupting the current way of expert-based fashion forecasting as it is 100% tech-backed.”

Snapdeal is reportedly investing $100 million into a new multimedia research lab in Bangalore. The company’s app- findmystyle employs image recognition technology and machine learning algorithms, to make search results faster, accurate and tuned to the specific consumers.

The Way Ahead-

It would be an understatement if we say, “Artificial Intelligence is the next big thing”, for it is already here, and of course, with a bang!

Tech juggernauts across the world are advancing at an incredibly impressive pace towards the crux of this technology. Google for example, is conducting a highly advanced research on AI called Thought Vectors, in an attempt to infuse common sense into machines. Similarly, Apple, Facebook and Microsoft are working on their respective projects on AI development.

Expressing himself on the future scope of Artificial Intelligence in eCommerce, Navneet Sharma, Co-Founder & CEO of AI-linked startup Snapshopr, maintains, “Not very far from today, eCommerce apps will know in advance know what you need and will order them automatically for you.” Adding further, he stated with conviction that nothing is impossible with AI. It’s only limited by time and computing resources.

Twitter est-il vraiment la « boule de cristal » des marchés financiers ? – Rue89 – L’Obs

Twitter est-il vraiment la « boule de cristal » des marchés financiers ? – Rue89 – L’Obs.

C’est un article des Echos qui a provoqué le courroux de Thomas Renault, doctorant en économie, qui anime le blog Captain Economics.

« Comment Twitter est devenu la boule de cristal des marchés financiers, » annonce tout de go, le 31 juillet, le quotidien de l’économie. S’ensuit une mignonne infographie sur les « tweets qui ont fait réagir les marchés » – comme celui posté par le compte piraté d’Associated Press annonçant une explosion à la Maison-Blanche – et un papier qui tend à montrer que le réseau social est « devenu la miss météo des marchés ».

A l’appui de la démonstration, Les Echos citent une étude de Bollen, Mao et Zeng, chercheurs à l’université de l’Indiana et de Manchester, qui, en 2010, ont montré que les données de Twitter pouvaient prédire l’évolution du Dow Jones avec 87,6% de fiabilité [PDF]. Autre étude, même effets : des économistes de l’université de Californie ont trouvé une « corrélation importante entre le nombre de transactions d’un titre et le nombre de “composants raccordés” – c’est à dire le nombre de posts liés à des sujets distincts concernant la même entreprise » [PDF].

Bref, tout cela a pour but de montrer qu’il est possible de « sentir » les états d’âme – irrationnels ou non – des investisseurs de toute farine à partir de l’analyse d’une masse de signes papillonnants (les tweets). Tout cela semble validé par une étude récente de la Banque centrale européenne (BCE) [PDF].

Sauf que.

Méthodo ?

Thomas Renault, qui prépare une thèse sur le sujet et dont les posts sont relayés par le très libéral site Contretemps ainsi que par divers organes de presse, appelle à la prudence.

En préalable, il donne un petit cadre conceptuel à sa critique : deux visions pourraient expliquer le rôle de Twitter sur l’évolution des marchés. La première se base sur la théorie informationnelle : l’idée que l’information publiée sur Twitter n’est pas encore intégrée dans la formation des prix. Elle est fondamentalement nouvelle. Ainsi, l’arrivée de Twitter modifie de manière permanente la formation de ces prix. La seconde se rapproche de la théorie « sentimentale » : le prix d’un actif peut dévier de son niveau d’équilibre en fonction du sentiment d’investisseurs « naïfs ». Twitter sert justement à mesurer ces craintes ou enthousiasmes.

Bon. Mais cela ne remet pas en question la pertinence des études citées plus haut. Cette critique constitue la deuxième partie de la note de Thomas Renault.

Argument numéro 1 : l’étude de Bollen, Mao et Zeng, qui prédit avec 87,6% de fiabilité l’évolution du Dow Jones n’est pas si béton que cela :

« La précision du modèle est testée “out-of-the-sample” sur une période allant du 1er décembre 2008 au 19 décembre 2008, soit 15 jours de trading ! 15 jours, en données daily (donc une étude sur 15 points) ! De plus cette étude ne s’intéresse pas au rendement d’une stratégie de trading basée sur Twitter, mais simplement à une prévision de la direction du marché (est-ce que le marché va monter ou bien est-ce qu’il va baisser). Pour finir, 6 modèles différents sont testés et le résultat mis en avant est celui du meilleur modèle, ce qui a tendance à clairement biaiser les résultats (en testant un grand nombre de stratégies purement aléatoires sur un nombre de points limités, la meilleur stratégie aura statistiquement une précision proche de 100%…). »

Argument numéro 2 : l’étude de la BCE n’est en réalité pas une étude de la BCE. C’est même précisé au début : « Ce papier ne représente pas les vues » etc. Il est signé par deux des auteurs (Bollen et Mao) de l’étude précédente.

Argument numéro 3 : corrélation n’est pas causalité.

« Dans l’article des Echos, il est par exemple écrit “A l’époque, Bloomberg en avait également profité pour sauter le pas en ajoutant les messages Twitter à son offre de services financiers quotidiens. Dans les semaines qui suivent, les ‘ flashs crashs ’ s’enchaînent.” Alors oui, le fait que des algos de trading haute-fréquence puissent analyser en temps réel le contenu des tweets (et tout autre flux d’information – articles, blogs, forums…) pour prendre des positions peut en effet déstabiliser les marchés en augmentant la volatilité… Le Captain’ n’a rien contre cette hypothèse, mais comme toute hypothèse, il va falloir prouver cela empiriquement en “contrôlant” le tout pour considérer l’ensemble des autres explications possibles. »

Conclusion de Thomas Renault, qui cite à son tour des études moins tranchéessur la question :

« Les résultats empiriques sont pour le moment très mitigés. […] Twitter n’est clairement pas une “boule de cristal” permettant de prévoir les marchés, mais plutôt “un bon miroir” reflétant la situation présente. »

Le Tour de France à l’heure du Big Data

Le Tour de France à l’heure du Big Data, High tech.

Les données sont devenues le nerf de la guerre des équipes cyclistes. Bientôt, des vêtements scruteront les performances des coureurs.

Chris Froome, le maillot jaune du Tour de France est-il surnaturel ou se dope-t-il? La semaine dernière, une vidéo circulant sur Internet et montrant le coureur lors de son incroyable ascension du Mont Ventoux en 2013, associée à des statistiques, mesurant fréquence de pédalage, vitesse, puissance (mesurée en watts), et rythme cardiaque est venue jeter de l’huile sur le feu du dopage.

Pour couper court aux rumeurs, l’entraîneur Tim Kerrison, a dévoilé mardi une nouvelle série d’indicateurs sur les performances de son coureur. « Collecter les données et s’en servir, c’est un avantage compétitif [comme] dans tous les secteurs de l’économie », a-t-il lancé, rappelant l’importance prise par la technologie dans le vélo. « On n’a pas attendu 2015 pour faire du Big Data. Il y a 15 ans, on était en retard sur l’athlétisme ou la natation. Aujourd’hui, on est devant», explique Frédéric Grappe, directeur de la performance au sein de l’équipe Française des Jeux.

Capteurs nichés dans les pédaliers

Actuellement, les données mesurant les performances du coureur sont récupérées grâce à des capteurs nichés dans les pédaliers. Ces systèmes ont fait leur apparition au début des années 2000, au lendemain de l’affaire Festina, qui a obligé les équipes à réfléchir à l’amélioration des performances autrement que par la dopage. « Cela nous a permis d’avoir des réponses bio-mécaniques aux entraînements qu’on n’avait pas avant », dit Frédéric Grappe. En 15 ans, si le dopage n’a pas disparu, le principe du recueil de données s’est installé. Mais les capteurs se sont miniaturisés, et les données ont gagné en précision. Désormais, elles ne sont plus transmises par câble mais via ANT+, sorte de réseau Bluetooth spécifique, à un appareil situé sur le guidon, qui permet au coureur d’y accéder en temps réel. En revanche, réglementation oblige, l’équipe technique et les entraîneurs doivent attendre la fin de la course pour les étudier.

Pour la première fois, ils peuvent – en théorie – accéder en direct à la localisation précise de leurs coureurs, grâce à d’autres capteurs GPS installés sur les pédaliers. ASO a conclu en ce sens un partenariat avec Dimension Data. « C’est un défi technique d’identifier par de simples mesures la localisation des coureurs», dit son porte-parole Adam Foster.

Des vêtements et dans le futur un casque connecté

Les capteurs dans les pédales ne sont qu’un début. Dans un futur proche, les coureurs porteront des vêtements connectés. La start up Citizen Science commercialisera début 2016 en partenariat avec Cyclolab, un grand fournisseur d’équipement de vélo, un cuissard (la combinaison du coureur) intégrant GPS, capteur d’hydratation, de température corporelle, et indicateurs de posture, permettant de savoir comment sont positionnés les coureurs sur le vélo. « On l’a fait dans le basket, le foot et le rubgy », commente son fondateur Jean-Luc Errant. A terme, ce sont les réactions du cerveau qui pourraient être mesurées grâce à un casque adapté.

Alors que de manière récurrente – le Tour 2015 n’y échappe pas – revient le soupçon de moteurs cachés dans les selles ou dans les roues, la technologie devrait permettre d’améliorer sensiblement le vélo lui-même, en l’adaptant au coureur. Des capteurs pourraient permettre de mesurer la façon dont réagit le vélo, qui se déforme sous la pression du coureur. « C’est comme dans le saut à perche, si vous n’avez pas la bonne perche, vous ne passez pas la barre », dit Frédéric Grappe.

Actuellement, la réglementation n’empêche pas à la technologie de s’installer. En revanche, l’accès aux données en temps réel, et donc le téléguidage des coureurs est interdit. Souvent à la fin, c’est la technologie qui gagne. La preuve, l’oreillette s’est installée.


En savoir plus sur http://www.lesechos.fr/tech-medias/hightech/021219927577-le-tour-de-france-a-lheure-du-big-data-1138761.php?MWAlaCLd0MZ7zFsA.99

Spotify: Une mappemonde des préférences musicales | JDM

Une mappemonde des préférences musicales | JDM.

Grâce au service de musique en continu Spotify, il est désormais possible d’avoir accès au palmarès musical caractéristique de plusieurs centaines de villes à travers le monde.
Présenté sous la forme d’une carte interactive, l’outil permet de sélectionner une des villes qui, elles, sont représentées par des points verts.
Une fois la ville choisie, l’internaute peut alors cliquer sur un lien menant à une liste des chansons qui la distinguent musicalement de toutes les autres villes.
Distinction?
Mais que veut-on dire par «distinguent»? Selon un article publié sur son blogue, Spotify explique que le son «distinctif» d’un endroit «est la musique que les gens y écoutent de façon notable, mais que les gens dans d’autres villes n’écoutent pas tant que ça. Et que cette musique fait donc d’eux des gens différents des gens partout ailleurs.»

Accelerating the Tour de France – a revolutionary viewing experience, powered by Dimension Data

Commencing in July this year at the Tour de France, Dimension Data will partner with A.S.O. to revolutionise the viewing experience of billions of cycling fans across the globe. Both organisations said their common goal in the coming years is to deliver and share the best race information speedily and in real-time with race commentators and the global viewing public.

Starting 4 July, Dimension Data’s Daily Data Wrap will comprise data highlights on the Tour de France riders. Data will include:

  • Stage winner’s top speed, average speed and time per kilometre;
  • Fastest riders up key climbs;
  • Speed of winner at the finish line;
  • Top speed achieved by a rider on the day;
  • Average speed across all riders;
  • Rider that spent the longest at the front of the race;
  • Time between first and last rider; and
  • Many other exciting data statistics uncovered during the three week event

Click here to register for the Daily Data Wrap, and for fans wanting real-time data updates, follow the ASO’s twitter feed on @letourdata.

This major innovation was made possible by Amaury Sport Organisation (ASO) in partnership with the 22 teams participating in the 2015 Tour de France. Highly accurate data will be collected through the use of live trackers under the saddle of each rider. Dimension Data will then process and analyse the data, and make it available to cycling fans, commentators, broadcasters and the media.

When the Tour de France begins on Saturday, the viewing public around the world will be able to follow all 198 riders in 22 teams real-time, and be able to track the speed at which each cyclist is riding, exactly where he’s positioned in the race in relation to other cyclists, and the distance between each rider – all via a beta live tracking website.

Dimension Data’s Executive Chairman, Jeremy Ord, said, “The technology will allow cycling fans to follow the race in ways they’ve never been able to before. Until now it was difficult to understand what was happening outside of what could be shown on the live television coverage. The ability to follow riders, get accurate information about which riders are in a group, and see real time speed are just some of the innovations that will be realised through this solution. During the duration of the three week race, we’ll be rolling out a range of new capabilities, including a beta live tracking website.”

The real time analytics solution will take the data provided by a third party geo localisation transmission component, undertake data cleansing and analysis, and provide access to this data as both a real time data stream, and a historical archive.

Ord said Dimension Data carried out testing during the Critérium du Dauphiné race which was held in France from 7 to 14 June. “We analysed one cyclist cycling at an astounding 104 kilometres per hour. This type of data has not been available in the past.”

All data analysed will be available through a beta live tracking website. This allows fans to select their favourite rider to follow, monitor the race on their phone or tablet (through a responsive design beta website) while they watch it live on the television, and gain access to additional data insights.

The 198 riders in 22 teams will generate 42,000 geospatial points and 75 million GPS readings. In addition, the live tracking website is built to support 17 million viewers and 2000 page requests per second. Data on riders will be processed in Dimension Data’s cloud platform across five continents consuming over 350 000 000 cpu cycles per second.

Brett Dawson, Dimension Data’s Group CEO said there are multiple layers to the innovation required to deliver the solution for ASO. We needed to implement cutting edge technology in the form of advanced real time analytics and a highly contemporary digital platform that’s able to provide innovative insights into the race that have never been available before.

“Dimension Data is bringing a new level of technical capability to the Tour de France in areas that will transform the technology landscape, including internet of things, real time big data analytics, Elastic Cloud Infrastructure, contemporary digital platforms, advanced collaboration technologies, and agile development practices. We’ll be their ‘Technical Tour de Force’.”

Christian Prudhomme, Tour de France Director said, “This top notch technological development will enable a better analysis of the race, highlight the race tactics, and also show how essential in this sport is each rider’s role within his team. It will now be possible to understand how to prepare for a sprint finish in the last few kilometres of a stage, feel the wind’s impact on the rider’s speed, and so much more. Our efforts combined with those of Dimension Data will permanently change the way we follow cycling and the Tour de France.”

From 2016 for the next four years, ASO and Dimension Data will work closely together to extend and enhance the platform to deliver a range of innovative end-user experiences.

Objets Connectés: Explication de la géolocalisation des coureurs sur le Tour 2015 (Source: RTBF)

Pour la première fois sur une course cycliste professionnelle, tous les coureurs engagés au départ du Tour seront équipés de capteurs capables d’envoyer en direct leur position GPS. Grâce au partenariat passé avec Dimension Data, le traitement et l’analyse de ces données permettront aux internautes et aux téléspectateurs de suivre le Tour avec un nouveau regard, plus complet, plus précis. Et l’expérience est appelée à s’enrichir avec les années…

10 ANS DE PREPARATION
Le passionné de cyclisme vit quelquefois une frustration à ne pas identifier avec certitude les différents groupes de coureurs, qu’ils soient échappés ou distancés par le peloton. Les moyens de géolocalisation qui existent et évoluent depuis plus de dix ans ont ouvert de nombreuses options pour obtenir une vision fidèle, en temps réel, de l’état de la course. En charge des systèmes d’information chez A.S.O., Pascal Queirel étudie justement ces questions et se souvient des premiers tests effectués : « En 2004, nous avions déjà placé des émetteurs sur des voitures qui suivaient les coureurs sur le chrono de l’Alpe d’Huez. Puis en 2008, c’est pour le Tour de Picardie que nous avons fait des essais sur les vélos, et un plus grand nombre de coureurs. Mais avec la transmission par GPRS, nous étions exposés à des pertes de réseaux, soit par saturation quand le public est trop nombreux, soit dans les traversées de zones non couvertes ». La possibilité d’acheminer les données par voie satellitaire ayant elle aussi été abandonnée, en raison du poids des émetteurs, c’est par les liaisons HF déjà utilisées par les signaux vidéo que circulent les informations : la première expérience à l’échelle d’un peloton entier a été menée sur Paris-Tours 2013.

LA SOLUTION TECHNIQUE : UN RESEAU MAILLÉ DE CAPTEURS
En pratique, 500 « trackers » ont été conçus et fabriqués pour équiper les vélos du Tour de France 2015. Chacun de ses capteurs, qui pèse 80 grammes, est placé sous la selle d’un coureur  et dispose d’une autonomie de 5 étapes. Il émet un signal par seconde, et envoie sa position GPS par le biais de transmetteurs installés sur 25 véhicules (voitures, motos d’officiels et d’organisation) qui feront office de « puits de remontée », c’est-à-dire dirigeront les données vers l’avion-relais. En zone technique, le dispositif mis en place avec Dimension Data sert à centraliser, traiter et diffuser cette masse d’informations aux techniciens qui les mettent en forme, puis les placent à la disposition du public.

DES INFOS PLUS PRECISES SUR LE WEB, LA TV…
Pour cette première mondiale, l’objectif affiché sera de réunir et d’utiliser avec une fiabilité maximale les données provenant des 198 coureurs du peloton, sachant que les équipes cyclistes ont toutes choisi de tabler sur cette solution d’avenir et d’adhérer à ce projet. Dès lors, une page internet complémentaire de l’appli de tracking déjà existante sur letour .fr sera mise en ligne, avec des suivis de composition de groupes et d’écarts en direct. Des représentations graphiques sont également préparées pour les diffuseurs TV, qui pourront par exemple identifier sur l’instant les coureurs victimes d’une chute. Surtout, la technologie utilisée, qui enregistre toutes les données, rend aussi possible dans l’avenir la reconstitution  de séquences de course (sprints, attaques, etc.), par exemple en 3D. A suivre…