The Top 10 Big Data Challenges: 2 Technological vs 8 Cultural

The Top 10 Big Data Challenges [Infographic].

This week’s infographic looks at the top 10 challenges organizations face in capitalizing on Big Data, courtesy ofTata Consultancy Services.

big-data-infographic

tweet infographic

The Top 10 Big Data Challenges

1. Cutural: Getting business units to share information across organizational silos

2. Technological: Being able to handle the large volume, velocity and variety of Big Data

3. Cultural: Determining what data, both structured and unstructured, and internal and external) to use for different business decisions

4. Cultural: Building high levels of trust between the data scientists who present insights on Big Data and the functional managers

5. Cultural: Finding and hiring data scientists who can manage large amounts of structured and unstructured data, and create insights

6. Cultural: Getting top management in the company to approve investments in Big Data and its related investments (e.g., training)

7. Technological: Putting our analysis of Big Data in a presentable form for making decisions (e.g., visualization/visual models)

8. Cultural: Finding the optimal way to organize Big Data activities in our company

9. Cultural: Understanding where int he company we should focus our Big Data investments

10. Cultural: Determining what to do with the insights that are created from Big Data

Comment SFR repère ses clients voulant le quitter grâce au Big Data

Comment SFR repère ses clients voulant le quitter grâce au Big Data.

Technologie : L’opérateur au carré rouge analyse le comportement de ses clients en ligne afin d’anticiper d’éventuelles envies d’aller voir ailleurs. La méthode serait efficace puisque les trois-quarts des abonnés contactés renoncent à se désabonner.

Si le Big Data occupe l’esprit de très nombreuses directions informatiques, force est de constater que le retour sur investissement tarde à se concrétiser. Une étude récente de Capgemini Consulting montre en effet les initiatives Big Data ne sont que dans 27% des cas qualifiées de réussites. S’y ajoutent 8% qui n’hésitent pas à parler de franc succès. Pour les autres, les attentes n’ont donc pas été satisfaites.

Du côté des opérateurs télécoms, l’équation semble un peu différente. On a évoqué ici les initiatives d’Orange Business Services qui monétise les données anonymisées de ses clients pour réaliser des produits à destination des spécialistes du tourisme par exemple. Des produits qui commencent à rencontrer un vrai succès.

Chez SFR, on va plus loin encore : l’analyse de données lui permet de faire baisser son taux de churn, c’est-à-dire le poucentage de clients le quittant pour aller chez la concurrence. Le churn est le cauchemar des opérateurs qui cherchent logiquement à retenir le plus possible leurs abonnés.

81% des candidats au départ repérés

C’est au détour d’un dossier compilant de nombreux retours d’expérience de Big Data dans les entreprises, que l’on découvre cette approche, fournie par Sinequa. L’idée est simple : il s’agit d’analyser (donc de surveiller ?) le comportement de ses clients en ligne afin d’anticiper d’éventuelles envies d’aller voir ailleurs.

“Quotidiennement, nous insérons dans Sinequa 20 millions de lignes de logs issus du trafic sur sfr.fr et m.sfr.fr, la version mobile”, précise Olivier Denti, en charge du premier projet Sinequa chez SFR. Le prestataire fournit ensuite des informations ciblées, par exemple sur la durée de la visite, le nombre de pages vues, les domaines visités (Assistance, Mail, Mobiles…), les produits consultés, les mots-clés saisis sur un moteur de recherche Internet ou sur sfr.fr, etc”.

De quoi permettre de repérer ceux qui auraient la tentation de partir, c’est à dire ceux qui consultent beaucoup de pages liées aux résiliations de contrat ou aux offres concurrentes…

Cette surveillance proactive pourrait choquer mais pour SFR, le retour sur investissement est plus que satisfaisant puisque cette méthode permet de mieux repérer les candidats au départ (81% affirme Sinequa) et de les appeler au bon moment, avant qu’ils aient pris leur décision. Et ça marche puisqu’un test mené sur un échantillon de ces personnes a révélé que 75% des clients contactés avant une résiliation restent chez SFR. Soit une économie de “millions d’euros” pour SFR, selon le spécialiste.

Contacté par nos soins SFR ne fait “aucun” commentaire. On peut néanmoins estimer que les concurrents de SFR appliquent les mêmes méthodes pour mieux connaître leurs clients…

AXA’s first data science competition on Kaggle

AXA’s Data Innovation Lab has launched its first challenge on Kaggle, running from 15th December 2014 to 16th March 2015. Based in San Francisco, the startup gathers a community of more than 200,000 data scientists, competing with each other to solve complex data science problems. For AXA, partnering with Kaggle is a unique opportunity to attract the best data scientists in the world.
Join in here: https://www.kaggle.com/

Alors que sa filiale Direct Assurance doit lancer sous peu une offre d’assurance automobile aux primes modulées selon le comportement du conducteur (ce qu’on appelle « pay how you drive »), AXA organiseun concours pour tenter d’affûter ses algorithmes d’analyse de données, avec l’aide des « data scientists » du monde entier.

Première grande initiative visible du « Data Innovation Lab » fondé cette année par la compagnie, la compétition est hébergée sur la plate-forme Kaggle, qui devient incontournable pour ce genre de manifestations (parmi les assureurs, globalement peu nombreux, AllState a régulièrement recours à ses services depuis 3 ans). De la sorte, AXA peut immédiatement capitaliser sur une audience potentielle de plus de 200 000 membres qualifiés, spécialistes de l’analyse de données, issus d’une centaine de pays.

Music Business and Big Data: Next Big Sound estimates potential hits (based on data from Spotify, Instagram, … )

To Make A Chart-Topping Song, Think ‘Slightly Unconventional’ | Spotify Insights.

What makes a hit song? People have been chasing that formula since the earliest days of the recorded music industry, and nobody has found it. One company that tries, Next Big Soundestimates its success rate at picking songs that will soon make the Billboard 200 (based on data from Spotify, Instagram, and other sources) at only 20 percent.

Here’s another prediction: Nobody will ever predict, with total accuracy, which songs will reach the pinnacle of the charts. That is not to say it’s impossible to make a song with a good chance of doing well, or to figure out what kinds of songs are more likely to become hits given listening data, the cultural preferences of the time, and/or the instincts of pro hitmakers.

It’s a tricky thing, as demonstrated by new research into the audio attributes of over 25,000 songs on the Billboard 100 from 1958 to 2013. The trick: To be a hit, a song should sound different from anything on the charts, but not so different that it falls off of the cultural radar of the time.

To decide what makes a song conventional or an outlier, Noah Askin (Assistant Professor of Organizational Behavior at INSEAD, in Paris) and Michael Mauskapf (PhD student in Management & Organizations at Northwestern University’s Kellogg School of Management, in Chicago) used audio analysis from The Echo Nest at Spotify to create a new metric called Song Conventionality (methodology below).

It’s ‘Only’ At The Top

Their graph shows that songs in the top 20 show the least amount of conventionality out of any section of the Billboard Hot 100 over time. The farthest outliers, from a musical perspective (based on audio attributes and genre as described below), are the winners:

Differentiation_Chart1

If a song is too weird, it’s unlikely to make the charts at all, of course; songs at the top of the charts are more similar to each other than stuff from obscure genres of limited (if passionate) appeal.

But within the charts, songs at the top are more likely to sound unconventional than songs in the middle. At the bottom of the Hot 100, we see a bit more deviation from the popular musical conventions of the time, but still nowhere near as much as within the top 20.

Are these findings statistically significant? Yes.

“These graphs are just a descriptive representation of the data; when we run our explanatory models, and control for a host of other effects,” responded Mauskapf. “We find that the relationship between conventionality and chart position is statistically significant (e.g., for songs that appear on the charts, higher levels of conventionality tend to hurt their chart position, except for those songs that are exceptionally novel).“

So ironically, in order for large swaths of the population to connect with a song, it has to sound different from the other stuff that’s popular at the same time. We appear to crave convention, but crave something different most of all.

Unconventionality Reigns Among the Hits

Let’s take a closer look at the very top of the chart, where the same effect can be seen, with a larger effect the closer you get to the coveted Number 1 spot:

Differentiation_Chart2

The top song is the least conventional of the top 10. The top 10 are less conventional than the top 20.

If these results are any indication, if an artist and their people wants to put something out that has a good chance of making it to the very top of the charts, they should make something that stands out from the pack by moving in a different musical direction than everyone else’s releases.

So, the moral of the story: Do something different. What, exactly? That’s the hard part.

(As if on cue, as we prepared to post the article you’re reading now, we spotted an article from Slate about how varied the hits were this year, jibing with this research.)

Researchers’ Summary

From Askin and Mauskapf:

  • “When evaluating cultural products, attributes matter, above and beyond social influence dynamics and symbolic classifications like genre.
  • “Attributes shape performance outcomes directly and indirectly, through a relational ecosystem of cultural products we call ‘cultural networks.’
  • “Songs that are slightly less conventional than average tend to outperform their peers on the charts.
  • “Nevertheless, predicting hit songs is nearly impossible to do, because performance is largely contingent on a song’s relationship to other songs that are produced and released contemporaneously.”

Behind The Scenes

“We used The Echo Nest’s attributes to build a ‘song conventionality’ measure and construct networks of songs for each week of the Billboard Hot 100,” explained Askin and Mauskapf in a summary shared with Spotify Insights. “[The below figure] shows one such network, in which the ‘nodes’ are songs and the ‘ties’ between them represent shared genre affiliations and greater-than-average attribute overlap.”

“Our findings suggest that the crowding of attributes within a cultural network can hinder songs’ movement up the charts.”

Here’s a depiction of one song network they made showing their audio and genre similarities (explanation below):

differentiation3

“The spatial relationship [in the chart above] is a function of both a commonly-used network layout algorithm (Fruchterman-Reingold) and of attribute similarity, such that the greater the distance between two songs–>the more dissimilar those songs are across the Echo Nest attribute space (measured using cosine similarities). Colors represent genres; not surprisingly, songs of the same genre tend to cluster together, and certain clusters(e.g., rock and pop) tend to be more sonically similar than others (e.g., rock and funk.soul). Notice however that some songs do not fit the genre clustering pattern, and act instead as brokers between two or more genres (e.g., Little Latin Lupe Lu).”

For any other music scientists who happen to be reading this, here’s some further background on how this research was done.

“1) First, we used a cosine similarity measure to assess the overall degree of Echo Nest audio attribute overlap for each song pair on a particular chart. Put another way, for each song on every chart, we calculated 99 cosine similarity measures to represent the degree of attribute overlap with every other song on that chart. Cosine similarities vary from 0 to 1, and are a common way to measure “distance” across a multi-dimensional attribute space.

“2) The above measure represents songs’ raw attribute similarity, but two songs that have similar sonic attributes may be perceived differently if they are embedded in different genres. Because listeners’ perceptions of a song’s attributes are likely to be influenced by genre affiliation(s), we wanted to weight each song pair’s cosine similarity by the average attribute overlap of those songs’ “home” genres. To do this, we calculated yearly attribute averages for each genre, and then used the same cosine similarity equation to measure the average attribute overlap of each genre pair. The resulting weights were then applied to the raw similarity measures for each song pair. For example: if one rock song and one folk song had a raw cosine similarity of 0.75, and the average cosine similarity between rock and folk is 0.8, then that genre-weighted cosine similarity for those two songs would be 0.75 * 0.8 = 0.6.

“3) After we had calculated genre-weighted cosine similarity measures for each song pair on each chart, we calculated the mean. The resulting value represents each song’s “conventionality” score for a given week. The higher a song’s conventionality score, the more alike that song is to other songs on the chart.

“The average genre-weighted song conventionality score across Hot 100 songs was a little under 0.8, which suggests that, for the most part, songs that achieve some level of popular success are very much alike. In our analysis, we try to tease apart small variations in this measure to explain why, controlling for the effects of genre, artist popularity, and a host of other factors, some songs tend to do better than others.”

You can contact the authors of this research at m-mauskapf@kellogg.northwestern.edu andnoah.askin@insead.edu.

Most commercially important Digital Marleting Trend for 2015: Content Marketing, Big Data, Marketing Automation – Smart Insights Digital Marketing Advice

Well, it’s already that time of year where it becomes popular to look at marketing trends for the year ahead. Many readers will naturally have been planning and prioritising how you invest in marketing in the year ahead for some time already.

In my article on digital marketing trends for 2015 we asked readers of Smart Insights to vote on what they saw as the most commercially significant trend for their business in the year ahead. We have now had over 600 responses – thanks if you have voted! If you’re still able to share to learn about managing digital marketing, I’d be really grateful if you could complete this more in-depth survey about Managing Digital Marketing in 2015 – there are 5 prizes available and everyone who completes the survey will get a free copy of the final report.

Here are the results of the poll on the biggest trend for 2015.

No surprise that content marketing topped the poll for the third-year running, in fact it was even further ahead compared to previous years since mobile marketing and social media marketing have declined in importance as marketers have implemented these. It’s close for second, third and fourth position. It’s significant that ‘Big Data’ is still in second position although the hype has receded. I think this shows the potential for companies to implement more in data-driven marketing techniques in 2015, which will likely be closely related to marketing automation which is in third place.

Is Predictive the New New Thing in Marketing Technology? | Lattice Engines

Is Predictive the New New Thing in Marketing Technology? | Lattice Engines.

It’s an exciting time to be working in marketing. We are amidst an important transformation with data at the forefront and technology steering the course for marketing and sales professionals. In just the past 12 months, almost $200 million in marketing_frontierVC funding has gone into predictive marketing and sales software companies. Why all the interest?

  • CRM systems like salesforce.com essentially come as an empty box because they were built at a time of data scarcity and have not kept up with the abundance of data that is now available. It does not yet leverage the power of predictive analytics that could improve a rep’s win rate by telling them which accounts they should focus on.
  • The use of marketing automation technology is becoming the norm in many organizations with adoption rates reaching 80 percent, which leaves many marketers wondering, ‘what’s next for marketing technology?’ With over 900 marketing tech vendors and counting, it is easy to get lost in the options and opportunities. (See the LumaSCAPE, WorkBench and Chief Mar Tech samples.)
  • Meanwhile consumer companies like Amazon, Uber and Netflix have proven the power of using vast amounts of data to make predictions about customer buying behavior. Businesses are demanding and many are already experiencing the same level of innovation – the consumerization of B2B.

Predictive Tech for Business Takes Off

According to CBInsights, just last year over $2.5 billion in venture funding went to marketing and sales technology companies. Looking back over the past four years, we’ve also seen a flurry of activity in the M&A and IPO front, with salesforce.com acquiring ExactTarget for $2.5 billion, Oracle acquiring Responsys for $1.5 billion and Marketo going public. We’ve also seen newer marketing automation vendors like Autopilot, Captora, Act-On and Intercom raise more capital this year. Most recently, Salesforce’s acquisition of RelateIQ for $390 million is a step forward, but it still has a long way to go to offer customers predictive capabilities. The larger automation vendors in general are behind in this area.

The early adopters of marketing automation were some of the savviest marketers, and they are now looking for the next thing in marketing, among the fragmented tech landscape. Many of these cutting-edge marketers are turning to predictive applications, which is why we believe in the growing trend of predictive marketing.

The Rise of Predictive Marketing

Though it may feel foreign to marketers, predictive analytics can uncover fresh insights about your prospects and customers. It can also accurately predict buyer intent, in turn helping you better understand how customers will respond to messages, offers and interactions in ways that were previously not possible. By leveraging data science to make sense of all the data available, the savviest companies are marketing and selling more intelligently. Predictive analytics is emerging as central to the modern marketing organization. DocuSign, one of our early customers, has experienced a 22x ROI and 38% lift in opportunity conversion in the first two months of using Lattice applications to fuel its predictive marketing efforts. As part of a larger initiative to complete reengineer its demand funnel, CA Technologies experienced a 400% improvement in its lead conversion with Lattice.

While the concept of predictive marketing is now emerging as the next frontier, the truth is that the technology has been around for some time. Lattice entered the space back in 2006 and with the market now catching up, some of the best names in venture capital are jumping in and investing in the opportunity. We recently studied the growing landscape of companies utilizing data science to provide marketers with predictive applications. You can see our research in our latest infographic, The Next Frontier of Marketing Techoriginally posted on VentureBeat.

The_Next_Frontier_of_Marketing_Tech_updated071414

Datamorphose et Datacoin – La data, une nouvelle source de revenus ? (Yves Del Frate – CB News)

France, Fast Forward : Les media, pour accélérer la croissance en France.

Yves del Frate — CEO Havas Media France

+ 6,9 % en 2011, + 4,5 % en 2012, +2,8 % en 2013 : les gains de part de marché des marques qui ont augmenté leurs investissements publicitaires*.

L’investissement media pour booster la croissance. Un must pour les Américains qui investissent 2,5 fois plus en media par habitant qu’en France (363€ vs 147). Les Allemands n’étant pas en reste avec 190€, + 30 %. Les media créateurs de valeur, sont eux-mêmes en transformation accélérée, autant de nouvelles opportunités de croissance en France ! Alors que nous passons de la « France télé » à la « France Twitter »  la ruée vers l’or digital s’étend avec les poussées de You Tube, Le Bon Coin, Amazon… avant les nouvelles vagues Beachmint, Shoedazzle…

Une nouvelle dimension de l’audience TV est née de l’interaction des media sociaux avec les programmes  l’audience sociale, mesurée par le SRP (Social Rating Point), nouveau filon pour engager les publics dans un dialogue avec les marques qui peut aller jusqu’à la transaction.

Après les « couch potatoes », les « couch shoppers », marketeurs, à vos « TV commandes » !

Les Owned media sont générateurs de business également. « Clics et briques » réconciliés… le multi canal s’impose, le Drive déroule, + 49 % en nombres d’unités en 2013, autant que d’hypers en France. Le E-commerce n’est pas en reste à + 13,5 % en valeur en 2013.

Cette netamorphose des media nous conduit en datamorphose.

La Data pour les Français, une nouvelle source de revenu ?

Si 89 % des Britanniques se disent inquiets de l’intrusion de la data dans leur vie privée… ils sont 45 % à se déclarer prêts à partager plus de data en échange de rémunération.

Après le Bitcoin, le Datacoin ?

La transformation digitale des media, de notre société s’accélère, les points de contacts deviennent des points de ventes, les points de vente des points de contacts  les marques, des media, des points de vente  les points de ventes, des media  les media des points de vente… des bars, des restaurants… seule limite aux business models, votre imagination.

La révolution digitale est commerciale, la valeur de votre marque demain est dans sa valeur media aujourd’hui alors investissez dans la ruée vers l’or numérique en France et visons ensemble le même niveau de croissance que l’Allemagne en 2015 : 1,7 %.

 

Yves del Frate

 

* : source : 2MV DATA CONSULTING EFFI 500, La première étude d’efficacité media en continu des 500 plus grandes marques grande conso depuis 2010.

Algorithmes devins : les smartphones, bientôt nos « deuxièmes cerveaux » ? – Le nouvel Observateur

Algorithmes devins : les smartphones, bientôt nos « deuxièmes cerveaux » ? – Le nouvel Observateur.

Très intéressante interview de Rand Hindi  dans le Nouvel Obeservateur: Patron de Snips, une start-up qui ambitionne d’allier « big data » et algorithmes pour repenser le quotidien et la façon de vivre des citadins en anticipant leurs comportements. Le prestigieux MIT (Massachussetts Institute of Technology) lui a décerné en avril dernier le titre de meilleur start-upeur français de l’année.

Extraits:

Rue89 : Pouvez-vous nous expliquer ce qu’est l’analyse prédictive ?

Rand Hindi : L’idée de l’analyse prédictive, que souvent les gens appellent « big data » par amalgame, c’est de récupérer une grande quantité de données, d’extraire des motifs statistiques à l’intérieur, et de s’en servir pour essayer de prédire ce qui va se passer après.

Mais quand on parle de prédictions, on ne parle pas de prédictions façon « boule de cristal », on parle en fait de mesurer la probabilité qu’un événement particulier se produise.

Comment obtenez-vous ces données qui permettent de bâtir les modèles prédictifs ?

Et par dessus ça, on a également de la donnée qu’on récupère directement à travers l’application sous trois formes différentes :C’est là où ça devient intéressant. Il y a de l’open data, énormément. On capture de la donnée depuis une centaine de sources d’open data, allant de la météo jusqu’à de la donnée de cartographie, sur les gares et les immeubles à proximité… On croise cela avec des données que nous a confiées la SNCF sur l’affluence dans les trains.

  • les requêtes de recherche ;
  • les « check-in » ;
  • et, lorsque l’utilisateur accepte, on récupère sa géolocalisation anonymisée quand il est dans le réseau de transport.

C’est dans cette direction que vous avancez maintenant avec Snips ?

Le nouveau produit qu’on est en train de lancer qui sera prêt d’ici la fin de l’année est une app qui est capable de comprendre ce que tu cherches à faire dans ta journée pour te proposer directement l’information dont tu as besoin et te renvoyer vers les apps que tu as besoin d’utiliser.

Plutôt que d’aller chercher ton application microphone dans ta liste, ton téléphone aura compris que tu es dans un café pour une interview et te propose directement l’appli et une fiche LinkedIn sur moi. Ton téléphone s’adapte à ton mode de vie.

Lire l’intégralité de l’interview: http://rue89.nouvelobs.com/2014/08/24/algorithmes-devins-les-smartphones-bientot-deuxiemes-cerveaux-254326

en savoir plus sur Snips:

At Snips, we leverage personal, social and urban data to make our proprietary machine learning algorithms able to determine the users’ context and predict what they will want to do next. This ground-breaking technology enables us to create products that can learn and adapt to us, taking us a step further towards a world of truly ubiquitous, context-aware computing.

 

IFTTT et les défis du Big Data (Source: Tendances.info)

 

Une excellente analyse de Tendances.info

 

L’un des défis de la multiplication des applications, notamment liés aux objets connectés, est de les faire converger. C’est l’objectif de l’application IFTTT qui facilite la programmation de tâches entre applications. Une innovation réelle, qui tente de se faire une place au soleil alors que plusieurs sociétés s’affrontent pour imposer leur langage dans l’Internet des objets. Mais le cas IFTTT amène à se poser d’autres questions.

Lancé en septembre 2011, le service IFTTT permet de créer des automatismes, appelés recettes, entre des applications, sans avoir à apprendre les différents langages de programmation. L’acronyme IFTTT décrit en fait le processus d’écriture de ces recettes : IF This Than That (si ceci alors cela). Si une action, appelée un trigger ou déclencheur, se produit alors cette action doit avoir lieu. Par exemple vous pouvez décider grâce à IFTTT que lorsque vous prenez une photo grâce à Instagram (le déclencheur), cette photo soit publiée automatiquement sur votre page Facebook. Mais l’application multiplie les partenariats avec des fabricants d’objets connectés, comme par exemple Belkin. Ainsi vous pouvez créer une recette avec la WeMo, la prise connectée de Belkin et décider que lorsque vous êtes à 500 mètres de votre maison (grâce à la fonction géolocalisation de votre téléphone portable) WeMo met en route l’éclairage de l’entrée de votre maison. La grande force d’IFTTT réside dans la simplicité de programmation, grâce à des règles prédéfinies, qui permet de s’affranchir de l’apprentissage de différents langage de programmation. Plus encore IFTTT permet de faire communiquer des applications programmées dans des langages différents. Et c’est là un atout non négligeable dans le contexte actuel.

Guerre des standards dans l’Internet des objets

Car à l’heure actuelle il n’existe aucun langage standard assurant l’interopérabilité entre les différents objets et applications développées. Des initiatives existent pour proposer une solution unique, mais elles se heurtent à des intérêts divergents entre acteurs, engagés dans un secteur qui s’annonce prometteur. Par exemple, Samsung et Google (par le biais de sa filiale Nest) se sont rassemblés pour développer un nouveau protocole de communication baptisé Thread. Leur projet vient concurrencer un protocole similaire sur lequel travaille Apple. AT&T, Cisco, General Electric, IBM et Intel se sont regroupés en mars dernier au sein de l’Industrial Internet Consortium pour travailler sur des standards permettant de faire communiquer capteurs et objets connectés aux systèmes informatiques traditionnels. Dans le même temps Intel a réuni quelques acteurs (dont Samsung) au sein de l’Open Interconnect Consortium afin de plancher sur une solution de communication en open source pour les objets connectés par liaison radio. Un projet qui concurrence en partie l’initiative AllSeen Alliance de Qualcomm, qui rassemble par exemple Cisco, D-Link, LG, Panasonic et depuis peu Microsoft. Il semble donc peu probable que l’on aboutisse à une solution unique de communication dans un horizon proche. Aussi les initiatives comme celle d’IFTTT constituent une réelle alternative pour les utilisateurs, le travail de mise en relation entre des applications aux langages différents étant réalisé par les équipes de la start-up californienne. D’autres initiatives devraient suivre, et l’on peut supposer qu’Evernote, dont nous avions parlé dans un précédent article, vise un peu le même objectif en utilisant son logiciel pour exploiter les données qu’il collecte, sans intervention de l’utilisateur. Mais si le service apporté par IFTTT est légitime, en l’absence de langage standard entre applications, capteurs et systèmes d’exploitation, il soulève d’autres questions.

IFTTT et le revers de la médaille du Big Data

Les problèmes en questions ne sont pas propres à IFTTT, en fait on peut les appliquer à toutes les solutions qui visent à collecter, exploiter et stocker des informations numériques. La première que l’on peut citer est celle de la sécurité. Le déploiement d’objets connectés dans notre environnement constitue autant de points d’entrée supplémentaires pour des personnes mal intentionnées qui chercheraient à pénétrer nos systèmes informatiques. De plus, avec IFTTT, pour que les recettes fonctionnent il faut autoriser l’application à utiliser, et donc détenir, nos accès aux services que l’on veut mettre en relation (Instagram, Facebook, Twitter, …). Malgré tous les efforts déployés par IFTTT pour protéger ses serveurs, on peut imaginer les dégâts que représenterait un piratage informatique de leurs systèmes. Sans aller jusqu’au piratage, le fait de donner l’accès à nos comptes sur différents services revient à donner accès à des tiers à des pans entiers de notre vie privée. Certes c’est déjà ce que l’on fait en ouvrant un compte sur Facebook par exemple. Mais un service comme IFTTT rajoute une dimension, celle d’autoriser un opérateur unique à rassembler tous les comptes sur lesquels sont éclatés nos vies. Rien ne permet de penser que les fondateurs de cette société aient le projet de contrôler nos vies façon Minority Report. L’enjeu le plus immédiat de cette capacité à mieux connaître nos comportements par l’analyse des données provenant de l’utilisation de nos objets et applications numériques est celui de la valorisation de ces données. Proposé pour l’instant gratuitement, IFTTT se trouvera confronté tôt ou tard à la question de la génération de revenus pour pérenniser son entreprise. Et la vente des informations des utilisateurs représente certainement une piste intéressante pour ce faire. Intéressante car elle permettrait de maintenir la gratuité du service pour les utilisateurs, et que ces derniers ne verraient pas directement le lien entre les données qu’ils créent et leur utilisation par des sociétés tierces à des fins marketing. Pour l’instant la politique de confidentialité d’IFTTT semblent exclure ce cas de figure. Mais pour combien de temps. Enfin, dernier enjeu soulevé par les services de ce type : la question de l’énergie nécessaire pour alimenter tous les serveurs nécessaires au stockage et à l’analyse de ces données. Dans une série d’articles récents, le site d’information Mediapart s’est saisi de cette question. Et il est vrai que les chiffres donnent le vertige. A l’Agence de l’environnement et de la maîtrise de l’énergie, on estime que la consommation d’énergie nécessaire pour faire tourner les infrastructures de l’Internet en 2030 pourrait représenter l’équivalent de la consommation énergétique mondiale de 2008 … Du coup se pose la question d’une utilisation responsable du web et de ses services, en clair faire la part entre l’utile et le futile. Ce débat ne concerne bien entendu pas seulement IFTTT. Mais utiliser ce service, réellement innovant, devrait conduire à s’interroger sur ces différents paramètres : sécurité des informations, abandon de propriété d’une partie des informations que l’on génère, impact environnemental de l’infrastructure nécessaire.

Carrefour monétise ses données clients avec AOS d’Acxiom – Le Monde Informatique

Carrefour monétise ses données clients avec AOS d’Acxiom – Le Monde Informatique.

En couplant Audience Operating System d’Axciom à son CRM, la régie publicitaire de Carrefour veut monétiser auprès de ses partenaires les données récoltés sur ses clients.

Pour optimiser l’efficacité de ses campagnes marketing, Carrefour Media, la régie publicitaire du groupe Carrefour, a choisi la solution Audience Operating System (AOS) d’Acxiom. Selon l’éditeur, Audience Operating System « permet d’ingérer, d’analyser et de gérer tous types d’interactions entre l’enseigne et les consommateurs » et « de mieux connaître sa cible de consommateurs ».

La technologie d’AOS permet de consolider les données provenant de plusieurs points de contact de l’entreprise avec le client – CRM, média et supermarchés – et de gérer les interactions entre ces systèmes à travers tous les canaux via une seule plate-forme. Avec le système d’exploitation d’Acxiom, il devient possible de lier des données online d’origine diverse avec des données hors ligne récoltées dans les supermarchés Carrefour, de façon à aider le distributeur à optimiser ses investissements publicitaires. Grâce à cette approche, les données CRM de Carrefour se trouvent au coeur d’un « environnement sûr et anonyme », affirme la chaine de supermarchés.

Le système va permettre à Carrefour de « monétiser » l’ensemble de ses données marketing, et d’offrir en même temps « une expérience plus personnalisée aux clients de l’enseigne pour leurs courses en ligne ou en magasin », a déclaré l’enseigne de distribution françaiseLes partenaires de Carrefour bénéficieront également de ces informations sur les consommateurs et pourront proposer des offres contextualisées en s’appuyant sur des outils d’analyse marketing et de performance. « Il y a deux ans, nous avons imaginé créer ce nouveau marché et d’offrir à nos partenaires la possibilité d’accéder à nos données marketing de manière sécurisée et conviviale », a déclaré Jean-François Pagnoux, directeur marketing chez Carrefour Media. « Le déploiement d’AOS chez Carrefour Media va servir à optimiser nos achats de supports médias, à la monétisation de notre clientèle et nous aider à fidéliser davantage nos consommateurs vis à vis de l’enseigne ».