« Le gouffre de désillusion » des outils de social media listening

« Le gouffre de désillusion » des outils de social media listening

Quelles technologies émergentes vont affecter le futur du marketing digital ?

 

Pour l’année 2015, Gartner publie son rapport sur les technologies émergentes et présente sa fameuse « Hype Cycle ». Cette courbe, visible ci-dessous, permet de visualiser en un clin d’œil la maturité des technologies et leurs réponses aux attentes des entreprises. La courbe se divise en 5 étapes. La première est la période de « lancement de la technologie » avec l’arrivée sur le marché sous forme de prototypes. Vient ensuite le « pic des espérances exagérées » où les startups commercialisent la technologie dans un contexte d’emballement médiatique et d’attentes non-réalistes. En troisième arrive le « gouffre des désillusions » où les produits ne répondent pas aux attentes exagérées des acheteurs. Puis une « pente de l’illumination » où les technologies ayant survécu à l’effondrement de la hype répondent aux attentes réalistes. Enfin le « plateau de productivité » est la dernière phase, où la technologie est rodée et s’intègre naturellement sur le marché.

Ce qui nous marque sur cette courbe est la place des plateformes d’Advanced Analytics With Self-Service Delivery. Ou pour résumer, les outils d’analyse qui proposent des modèles analytiques basiques avec un accès rapide et simplifiés aux utilisateurs. Cette définition englobe les outils de social media listening et monitoring et annonce donc de potentiels problèmes à surmonter à l’avenir.

emerging-tech-hype-cycle

 

Le défi marketing du Social Media Monitoring / Analytics :

 

En effet, si le marché en est à un stade d’attentes exagérées sur la performance et l’impact des technologies de veille et d’analyse la suite logique sera une chute de la hype et plusieurs désillusions. La promesse d’un outil qui génère des chiffres, courbes et graphiques sexy pouvant être interprétés par n’importe quel membre de l’organisation va se briser bientôt.  Beaucoup de technologies de Social Media Analytics promettent de limiter, voir de faire disparaître le besoin de l’intervention humaine. Chez Digital Insighters nous avons observé plusieurs marques se confronter à cette désillusion et rechercher des solutions.

La solution pointée du doigt par Gartner :

Alors qu’une entrée dans le « gouffre de la désillusion » est le résultat inévitable pour toute technologie, Gartner reste optimiste sur l’avenir de la technologie « Self-Service Analytics » qui nous intéresse aujourd’hui. Le rapport indique même la marche à suivre dans ce cas spécifique… s’appuyer sur des experts pour exploiter au mieux ces technologies. Ces experts qui maîtrisent à la fois les subtilités des outils ainsi que les besoins du client sont la clé de survie à ce gouffre. Les équipes d’experts aident à maîtriser et ajuster les attentes des clients, tout en exploitant au maximum la puissance des outils de social media analytics. Avec Digital Insighters nous apportons nos expertises pour compenser les lacunes technologiques. En commençant par définir la technologie la plus adaptée aux besoins et en continuant avec l’exploitation de cette technologie au sein de votre organisation, pour alimenter les départements en veille, insights et actions.

 

Sources :

Venturebeat : Here are the five most over-hyped technologies of 2015

Gartner : Self-Service Analytics

 

« Topic Data », le vrai-faux firehose de Facebook

« Topic Data », le vrai-faux firehose de Facebook

Mardi 10 mars, une annonce Facebook a fait l’effet d’une bombe dans la communauté marketing et l’industrie du social media intelligence. Facebook ouvre son firehose !

Facebook s’allie en effet avec Datasift pour lancer « Topic Data » et donner un accès à certaines informations sur les statuts Facebook de leurs utilisateurs. Nous nous sommes penchés sur la nouvelle et l’avons décortiquée pour vous. Elle se décompose notamment en deux éléments, la notion de « firehose » et les résultats à attendre de « Topic Data ».

 

Un Firehose ? Qu’est-ce que c’est ?

Le terme « Firehose » nous vient de Twitter. En 2010, Twitter a décidé de commercialiser l’accès aux tweets via leur API.

Trois options sont alors possibles :

  • Spritzer : Un accès gratuit à environ 1% des tweets, via l’API publique.
  • Gardenhose : Un « tuyau de jardinier » pour capter entre 10 et 20% des  tweets, via une API délivrée par Twitter au cas par cas.
  • Firehose : Un accès à 100% des tweets publiques (soit 500 millions de tweets par jour) en temp réel. Cette « lance à incendie » coûte $1 pour 1 000 tweets.

Trois sociétés spécialisées se sont vite démarquées en achetant l’accès au Firehose et en proposant de le revendre : Gnip (racheté par Twitter), Topsy (racheté par Apple) et Datasift (assailli de rumeurs d’acquisition). Datasift est partenaire avec la majorité des médias sociaux pour proposer un accès aux API de Twitter, Reddit, WordPress, Tumblr, Wikipedia, Youtube, IMDb etc… ces API sont des briques indispensables pour faire de la veille sur les médias sociaux. Et jusqu’à présent Facebook ne donnait un accès qu’aux pages et groupes publiques.

 

 Topic Data de Facebook : des données anonymisées

L’annonce de « Topic Data » promet de pouvoir tirer des insights sur les 1.3 milliards d’utilisateurs Facebook. Il suffit d’entrer des requêtes sur le nom de marque ou n’importe quel mot-clé pertinent pour ensuite obtenir des données anonymisées sur le sujet. Les données sont livrées par Facebook à Datasift qui les redistribue à ses clients. Facebook et Datasift ont travaillé avec Privacy by Design, une organisation gouvernementale canadienne dédiée à l’anonymisation des données afin de protéger la vie privée de leurs utilisateurs. Cette option permet à Facebook de puiser dans l’immense majorité des statuts/photos ou vidéos que ses utilisateurs publient en privé, tout en gardant leur anonymat.

Ces règles du jeu contraignent donc l’industrie à changer certaines pratiques, sur le plan de l’analyse mais également sur le degré de confiance à accorder aux insights.

Firehose pic

 

Les limites du vrai-faux Firehose

Étant donné que l’accès a « Topic Data » est limité, on ne peut réellement pas l’appeler un « Firehose ». Nous notons les quelques limites qui méritent d’être énoncées :

  1. Pas d’accès aux données brutes :   Les données ne donneront que des chiffres et peu de détails sur le contenu réel. Si vous avez déjà fait un export Excel des analytics d’une page Facebook, attendez vous au même principe.
  2. La Boîte noire : En l’absence de données brutes,  il faut faire confiance à Facebook pour filtrer le bruit, le spam, le faux… mais aussi pour assurer un niveau de qualité dans l’analyse du texte. En janvier Facebook a fait l’acquisition de Wat.ai des spécialistes en « Natural Language Processing », donc on peut espérer un taux de fiabilité habituel, soit autour de 75%. Par exemple, en cas de mauvaise qualification automatisée de l’ironie, il sera impossible d’estimer ou rectifier des erreurs à la main.
  3. Absence d’archives : La data n’est disponible que sur 30 jours glissant et ne permet pas de consulter le passé. Cette limite complique l’analyse des saisonnalités ou la détection des tendances et signaux faibles.
  4. 100 personnes minimum : Si la marque ou le marché est trop petit et insuffisamment mentionné, Facebook ne livrera pas de données afin de ne pas compromettre l’anonymat des utilisateurs.
  5. Données uniquement disponibles sur les US et UK : Ces marchés sont plus matures sur le sujet et sont naturellement les premiers à bénéficier de Topic Data. Il s’agit néanmoins d’un déploiement progressif, les autres pays et langues devraient suivre.

Nous voyons ici une limitation technologique qui peut poser problème. Un simple accès à un dashboard ou à un outil de veille n’est pas suffisant. Il s’agit également de s’assurer de la véracité de la donnée et de combler les lacunes des outils par de l’analyse humaine. Nous avons déjà des approches et méthodologies qui permettront de faciliter la compréhension et la contextualisation du sujet.

Si vous voulez plus de détails sur les données disponibles dans l’API, cliquez ici.

 

Des opportunités dans la Social TV ?

Pour conclure, plusieurs industries vont pouvoir bénéficier de Topic Data. Par exemple, la social TV voit un nouveau monde d’opportunités s’ouvrir ! Les français sont nombreux à commenter les émissions de TV en direct de leurs statuts Facebook. En analysant ces données les émissions pourront adapter leur contenu, jauger les audiences intéressées et également estimer l’impact de « bad buzz » perçus sur Twitter mais pas forcément ailleurs. Nielsen Twitter TV Ratings aura des sources complémentaires de données à apporter aux acteurs de la Social TV.

Facebook Topic Data est une progression intéressante pour notre secteur et va fournir des insights intéressants aux entreprises souhaitant toujours mieux comprendre leurs clients, leur marché et leurs parties prenantes. Les limites de Topic Data ne seront que technologiques et pourront être ménagées par de bons analystes.

Nationwide : la pub choc qui a gagné le Superbowl

Nationwide : la pub choc qui a gagné le Superbowl

Alors que les publicitaires pensaient avoir trouvé la bonne recette pour cartonner au Superbowl, Nationwide a fait tout le contraire. Après le match, c’est la marque d’assurance Nationwide qui se place en haut du classement des marques les plus évoquées sur le web pendant cette soirée avec 238 000 mentions, devant les 225 000 de Budweiser .

La formule préconisée par les agences est la suivante :

1. Publication de la pub en amont sur Youtube (entre 2 et 7 jours avant)
2. Seeding via les comptes sociaux
3. Activation RP et RP 2.0
4. Realtime marketing pendant le SuperBowl avec une équipe aux aguets
5. Interaction avec les autres marques sur Twitter

Mais Nationwide a fait différemment. Avant le Superbowl ils n’ont pas posté la pub sur Youtube, ils n’en ont parlé à personne ni fait de teasing sur les médias sociaux. Voici leur pub qui a marqué les esprits :

On joue sur l’aspect choc et morbide complètement à contre-pied de l’état d’esprit des autres publicités. Nationwide a décidé de ne pas dévoiler ce spot sur les accidents domestiques avant le match. Contrairement à la publicité contre la violence domestique de la NFL qui cherchait aussi le choc émotionnel, sa diffusion anticipée a réduit son impact sur le public américain. Plusieurs journalistes se sont même émus du fait que la magie des pubs du SuperBowl avaient disparu.
Cette formule choc comporte aussi un risque, qui pose la question du prix à payer quand on cherche à choquer. D’après Amobee une société d’analytics américaine, 64% des mentions de la pub Nationwide étaient négatives… la recherche de l’émotion a un prix. Effet supplémentaire, les internautes ont publié des mèmes avec le jeune garçon de la pub.

nationwide tweet

 

Aujourd’hui, NationWide a déclaré au Wall Street Journal qu’ils assumaient l’aspect choc de la publicité et se félicitaient d’avoir lancé une conversation nationale sur les accidents domestiques qui touchent les enfants.

Nouveau : Le Photo Monitoring sur les Réseaux Sociaux

Nouveau : Le Photo Monitoring sur les Réseaux Sociaux

Social Media Monitoring = Texte Monitoring ?

En une décennie, les solutions de veille web se sont améliorées mais aussi complexifiées. Les marques ont les moyens de repérer et analyser les prises de parole publics, que ce soit sur Twitter, Facebook, un blog, un forum, un site d’avis, son Tumblr, un site d’information etc… Pour identifier ces avis, il faut que l’internaute rédige a minima le nom de la marque ou de l’entreprise. Cependant les usages sur le web changent. Avec Instagram, Facebook, Tumblr, Snapchat, Shots, la tendance est au partage de photos depuis son smartphone. La teneur de ces photos ne change pas fondamentalement, c’est toujours un moyen d’expression pour les internautes voulant partager leur vie et leurs opinions.

Pour les marques, le manque à gagner est immense ! Les millions de photos partagées chaque jour sont une opportunité de comprendre comment les consommateurs interagissent avec les produits ou les points de ventes. Mais environ 90% des photos contenant un produit ou une marque n’ont pas de hashtag ou mot-clé associé, ce qui empêche la détection de ces contenus générés par les utilisateurs.

Test de Ditto : Le Photo Monitoring

Le Photo Monitoring est longtemps resté une technologie peu fiable et uniquement utilisée par les gouvernements ou les marques de luxe (actions anti-contrefaçon). Ditto, une société basée dans la région de Boston, apporte enfin une technologie pertinente pour les marques grâce à d’impressionnants algorithmes de reconnaissance de logos.

D’un point de vue technique, l’outil puise dans les API de Tumblr, Twitter et Instagram pour récupérer toutes les images partagées publiquement par les internautes. Chacune des images est analysée par des algorithmes de reconnaissance de logos et de reconnaissance d’expression faciale. Pour les utilisateurs finaux, la plateforme se présente comme les autres plateformes de veille traditionnelle. Les habitués retrouvent très vite leurs repères.

Chez Digital Insighters, on a testé Ditto. En voici un petit tour d’horizon, avec l’exemple de la marque Corona.

La rivière de photos utilisant le logo Corona

Ditto1

Les photos de profil des utilisateurs postant des photos de leurs bières

Ditto2

Les traditionnelles courbes de mention, impressions et niveau d’engagement

Ditto3

Les autres logos apparaissant le plus souvent dans les photos. On peut tirer des insights comme les affinités de marques non détectées par l’analyse de textes. Ici, Corona remonte avec beaucoup d’autres marques de bières de micro-brasseries américaines

Ditto4

Une liste des Key Opinion Leaders, c’est à dire les comptes influants publiant souvent des photos de Corona.

Ditto5

Les photos sont géolocalisées et présentées dans ces cartes. La précision permet d’aller même jusqu’au niveau du bar d’où les utilisateurs boivent leur Corona.

Ditto6Ditto7

 Quels usages pour les marques ?

Premièrement ce type d’outil sert aux prestations de Social Media Analytics. Comparer la différence entre les mentions et les photos qui sont partagées sur une marque ou un produit peut apporter de la valeur. Dans l’exemple sur Corona nous pouvons observer que les photos de bouteilles de bières sont partagées dans des contextes festifs (d’ivresse aussi) où il est plus simple de partager une image rapidement que d’indiquer la marque que l’on consomme.

Deuxièmement, des insights issus de l’analyse d’image peuvent servir en sponsoring. Un secteur où l’exposition compte beaucoup mais où la mesure du taux de transformation est loin d’être rigoureuse. Ici dans l’exemple Corona, nous avons noté que le logo apparaît souvent pendant des événements sportifs… et dans les jeux vidéos ! Des captures d’écran du jeux vidéo Fifa sont partagés sur les réseaux sociaux et contiennent naturellement les logo de sponsors. Mesurer l’impact du sponsoring en Earned Media est donc facilité par le photo monitoring.

Troisièmement, il existe des usages en événementiel. Identifier les lieux où le produit est le plus souvent mis en valeur (bars, boites, restaurants, hôtels, supermarchés, lieux culturels…) par les consommateurs permet aussi de mieux cibler les opérations de promotion sur le terrain.

… et quels freins ?

Il existe un frein que les marques doivent prendre en compte dans l’activation de cette veille photos. Comme au début du social media monitoring, les internautes peuvent se plaindre que leurs photos intéressent les marques. Pour désamorcer les craintes, nous recommandons l’approche de Jet Blue qui date de 2008 aux débuts de l’utilisation de Twitter par les marques.

 

Les technologies de photo monitoring viennent combler une lacune de nombreux outils de monitoring actuels. Ils offrent dès lors une nouvelle opportunité pour les marques : découvrir de nouveaux insights, comportements consommateurs ou utilisations de leur produit.

Ces Vines que vous n’aviez pas vu #RapBattleMarcus

Ces Vines que vous n’aviez pas vu #RapBattleMarcus

Un mouvement sur Vine mobilise tous ses influenceurs et les plateformes de Social Media Monitoring ne peuvent pas le détecter ou le mesurer. Place aux analystes et une stratégie de veille un peu inhabituelle.

Hier soir, Marcus Johns une des plus grandes célébrités sur Vine (4.6 millions de followers) a défié toute la communauté à une battle de rap par Vines interposés. Le buzz s’est lancé notamment parce qu’il a directement interpellé les autres stars de la plateforme, telles que Nash Grier (7.7M followers) King Bach (6.4M followers), Brittany Furlan (6.1M followers) etc…

L’appel à la battle a marché, les Viners influents ainsi que des milliers d’utilisateurs ont répondu en publiant leurs réponses sous formes de Vines destinés à Marcus.

Si vous lisez ce blog régulièrement (oui, oui ça va vous arriver) vous savez déjà que notre réflexe a été « et alors ? qu’est-ce que ça représente ? » Malheureusement, les outils de veille pour Vine n’existent pas. Aujourd’hui, les solutions clé en main pour comparer les buzz entre eux n’existent pas. Dans cette situation, il est toujours possible de voir le flux de Vines en allant sur l’URL du tag (l’équivalent Vine du Hashtag Twitter) : https://vine.co/tags/rapbattleMarcus mais on n’obtient pas des données chiffrées ou indicateurs.

La stratégie que je peux conseiller pour compenser ce manque est de mettre en place quelques requêtes fines dans vos outils de veille préférés afin de capter les Vines qui sont tweetés, comme ceux-ci par exemple:

Avec cette méthodologie, on obtient l’échantillon Twitter de Vine et donc un moyen de quantifier l’engouement autour de la Rap Battle. Très orienté autour de la personne de Marcus Johns qui poussent les utilisateurs à lui répondre, le volume de Vine #rapbattlemarcus chute en fin de soirée. Les « Viners » ont d’ailleurs promis de faire une pause avant de relancer la battle ce samedi.

Vine monitoring

Les enseignements :

Aux derniers chiffres (Août 2013), Vine comptait 40 millions d’utilisateurs. On constate l’émergence d’une communauté soudée et aux codes spécifiques. Un certain nombre de stars dominent cette plateforme et génèrent le contenu le plus diffusé. La dynamique entre ces stars est relativement élitiste, elles dialoguent surtout entre-elles par Vine interposés. D’ailleurs le sujet du jour #rapbattleMarcus illustre bien ce point, ce sont entre dix et vingt utilisateurs qui guident l’ensemble de la conversation et le contenu. Le reste de la communauté suit en cherchant à les interpeller. Comprendre ces dynamiques d’influence sur cette plateforme représente un nouvel enjeu pour les marques. Mais également pour les outils de social media monitoring qui devront intégrés Vine dans un futur proche, afin de ne pas passer à côté des contenus générés par les Viners.

Méthodologie suggérée :

L’objectif est de capter les mentions qui m’intéressent ou qui vont potentiellement affecter la communauté.

  • Sélectionner les 50 comptes les plus influents (sur Vine. Aujourd’hui, ce sont simplement ceux avec le plus de followers) sur le marché cible
  • Sur Vine : mettre en place une requête sur sa marque, son produit ou sur un tag spécifique, puis consulter l’URL régulièrement : par exemple, https://vine.co/search/mamarque  ou https://vine.co/tags/rapbattleMarcus
  • S’appuyer sur une requête spécifique dans son outil de social media monitoring pour capter et différencier les tweets contenant un Vine.
Qu’en pensez vous ? Laissez vos avis dans les commentaires !