« Le gouffre de désillusion » des outils de social media listening

« Le gouffre de désillusion » des outils de social media listening

Quelles technologies émergentes vont affecter le futur du marketing digital ?

 

Pour l’année 2015, Gartner publie son rapport sur les technologies émergentes et présente sa fameuse « Hype Cycle ». Cette courbe, visible ci-dessous, permet de visualiser en un clin d’œil la maturité des technologies et leurs réponses aux attentes des entreprises. La courbe se divise en 5 étapes. La première est la période de « lancement de la technologie » avec l’arrivée sur le marché sous forme de prototypes. Vient ensuite le « pic des espérances exagérées » où les startups commercialisent la technologie dans un contexte d’emballement médiatique et d’attentes non-réalistes. En troisième arrive le « gouffre des désillusions » où les produits ne répondent pas aux attentes exagérées des acheteurs. Puis une « pente de l’illumination » où les technologies ayant survécu à l’effondrement de la hype répondent aux attentes réalistes. Enfin le « plateau de productivité » est la dernière phase, où la technologie est rodée et s’intègre naturellement sur le marché.

Ce qui nous marque sur cette courbe est la place des plateformes d’Advanced Analytics With Self-Service Delivery. Ou pour résumer, les outils d’analyse qui proposent des modèles analytiques basiques avec un accès rapide et simplifiés aux utilisateurs. Cette définition englobe les outils de social media listening et monitoring et annonce donc de potentiels problèmes à surmonter à l’avenir.

emerging-tech-hype-cycle

 

Le défi marketing du Social Media Monitoring / Analytics :

 

En effet, si le marché en est à un stade d’attentes exagérées sur la performance et l’impact des technologies de veille et d’analyse la suite logique sera une chute de la hype et plusieurs désillusions. La promesse d’un outil qui génère des chiffres, courbes et graphiques sexy pouvant être interprétés par n’importe quel membre de l’organisation va se briser bientôt.  Beaucoup de technologies de Social Media Analytics promettent de limiter, voir de faire disparaître le besoin de l’intervention humaine. Chez Digital Insighters nous avons observé plusieurs marques se confronter à cette désillusion et rechercher des solutions.

La solution pointée du doigt par Gartner :

Alors qu’une entrée dans le « gouffre de la désillusion » est le résultat inévitable pour toute technologie, Gartner reste optimiste sur l’avenir de la technologie « Self-Service Analytics » qui nous intéresse aujourd’hui. Le rapport indique même la marche à suivre dans ce cas spécifique… s’appuyer sur des experts pour exploiter au mieux ces technologies. Ces experts qui maîtrisent à la fois les subtilités des outils ainsi que les besoins du client sont la clé de survie à ce gouffre. Les équipes d’experts aident à maîtriser et ajuster les attentes des clients, tout en exploitant au maximum la puissance des outils de social media analytics. Avec Digital Insighters nous apportons nos expertises pour compenser les lacunes technologiques. En commençant par définir la technologie la plus adaptée aux besoins et en continuant avec l’exploitation de cette technologie au sein de votre organisation, pour alimenter les départements en veille, insights et actions.

 

Sources :

Venturebeat : Here are the five most over-hyped technologies of 2015

Gartner : Self-Service Analytics

 

« Topic Data », le vrai-faux firehose de Facebook

« Topic Data », le vrai-faux firehose de Facebook

Mardi 10 mars, une annonce Facebook a fait l’effet d’une bombe dans la communauté marketing et l’industrie du social media intelligence. Facebook ouvre son firehose !

Facebook s’allie en effet avec Datasift pour lancer « Topic Data » et donner un accès à certaines informations sur les statuts Facebook de leurs utilisateurs. Nous nous sommes penchés sur la nouvelle et l’avons décortiquée pour vous. Elle se décompose notamment en deux éléments, la notion de « firehose » et les résultats à attendre de « Topic Data ».

 

Un Firehose ? Qu’est-ce que c’est ?

Le terme « Firehose » nous vient de Twitter. En 2010, Twitter a décidé de commercialiser l’accès aux tweets via leur API.

Trois options sont alors possibles :

  • Spritzer : Un accès gratuit à environ 1% des tweets, via l’API publique.
  • Gardenhose : Un « tuyau de jardinier » pour capter entre 10 et 20% des  tweets, via une API délivrée par Twitter au cas par cas.
  • Firehose : Un accès à 100% des tweets publiques (soit 500 millions de tweets par jour) en temp réel. Cette « lance à incendie » coûte $1 pour 1 000 tweets.

Trois sociétés spécialisées se sont vite démarquées en achetant l’accès au Firehose et en proposant de le revendre : Gnip (racheté par Twitter), Topsy (racheté par Apple) et Datasift (assailli de rumeurs d’acquisition). Datasift est partenaire avec la majorité des médias sociaux pour proposer un accès aux API de Twitter, Reddit, WordPress, Tumblr, Wikipedia, Youtube, IMDb etc… ces API sont des briques indispensables pour faire de la veille sur les médias sociaux. Et jusqu’à présent Facebook ne donnait un accès qu’aux pages et groupes publiques.

 

 Topic Data de Facebook : des données anonymisées

L’annonce de « Topic Data » promet de pouvoir tirer des insights sur les 1.3 milliards d’utilisateurs Facebook. Il suffit d’entrer des requêtes sur le nom de marque ou n’importe quel mot-clé pertinent pour ensuite obtenir des données anonymisées sur le sujet. Les données sont livrées par Facebook à Datasift qui les redistribue à ses clients. Facebook et Datasift ont travaillé avec Privacy by Design, une organisation gouvernementale canadienne dédiée à l’anonymisation des données afin de protéger la vie privée de leurs utilisateurs. Cette option permet à Facebook de puiser dans l’immense majorité des statuts/photos ou vidéos que ses utilisateurs publient en privé, tout en gardant leur anonymat.

Ces règles du jeu contraignent donc l’industrie à changer certaines pratiques, sur le plan de l’analyse mais également sur le degré de confiance à accorder aux insights.

Firehose pic

 

Les limites du vrai-faux Firehose

Étant donné que l’accès a « Topic Data » est limité, on ne peut réellement pas l’appeler un « Firehose ». Nous notons les quelques limites qui méritent d’être énoncées :

  1. Pas d’accès aux données brutes :   Les données ne donneront que des chiffres et peu de détails sur le contenu réel. Si vous avez déjà fait un export Excel des analytics d’une page Facebook, attendez vous au même principe.
  2. La Boîte noire : En l’absence de données brutes,  il faut faire confiance à Facebook pour filtrer le bruit, le spam, le faux… mais aussi pour assurer un niveau de qualité dans l’analyse du texte. En janvier Facebook a fait l’acquisition de Wat.ai des spécialistes en « Natural Language Processing », donc on peut espérer un taux de fiabilité habituel, soit autour de 75%. Par exemple, en cas de mauvaise qualification automatisée de l’ironie, il sera impossible d’estimer ou rectifier des erreurs à la main.
  3. Absence d’archives : La data n’est disponible que sur 30 jours glissant et ne permet pas de consulter le passé. Cette limite complique l’analyse des saisonnalités ou la détection des tendances et signaux faibles.
  4. 100 personnes minimum : Si la marque ou le marché est trop petit et insuffisamment mentionné, Facebook ne livrera pas de données afin de ne pas compromettre l’anonymat des utilisateurs.
  5. Données uniquement disponibles sur les US et UK : Ces marchés sont plus matures sur le sujet et sont naturellement les premiers à bénéficier de Topic Data. Il s’agit néanmoins d’un déploiement progressif, les autres pays et langues devraient suivre.

Nous voyons ici une limitation technologique qui peut poser problème. Un simple accès à un dashboard ou à un outil de veille n’est pas suffisant. Il s’agit également de s’assurer de la véracité de la donnée et de combler les lacunes des outils par de l’analyse humaine. Nous avons déjà des approches et méthodologies qui permettront de faciliter la compréhension et la contextualisation du sujet.

Si vous voulez plus de détails sur les données disponibles dans l’API, cliquez ici.

 

Des opportunités dans la Social TV ?

Pour conclure, plusieurs industries vont pouvoir bénéficier de Topic Data. Par exemple, la social TV voit un nouveau monde d’opportunités s’ouvrir ! Les français sont nombreux à commenter les émissions de TV en direct de leurs statuts Facebook. En analysant ces données les émissions pourront adapter leur contenu, jauger les audiences intéressées et également estimer l’impact de « bad buzz » perçus sur Twitter mais pas forcément ailleurs. Nielsen Twitter TV Ratings aura des sources complémentaires de données à apporter aux acteurs de la Social TV.

Facebook Topic Data est une progression intéressante pour notre secteur et va fournir des insights intéressants aux entreprises souhaitant toujours mieux comprendre leurs clients, leur marché et leurs parties prenantes. Les limites de Topic Data ne seront que technologiques et pourront être ménagées par de bons analystes.

Nouveau : Le Photo Monitoring sur les Réseaux Sociaux

Nouveau : Le Photo Monitoring sur les Réseaux Sociaux

Social Media Monitoring = Texte Monitoring ?

En une décennie, les solutions de veille web se sont améliorées mais aussi complexifiées. Les marques ont les moyens de repérer et analyser les prises de parole publics, que ce soit sur Twitter, Facebook, un blog, un forum, un site d’avis, son Tumblr, un site d’information etc… Pour identifier ces avis, il faut que l’internaute rédige a minima le nom de la marque ou de l’entreprise. Cependant les usages sur le web changent. Avec Instagram, Facebook, Tumblr, Snapchat, Shots, la tendance est au partage de photos depuis son smartphone. La teneur de ces photos ne change pas fondamentalement, c’est toujours un moyen d’expression pour les internautes voulant partager leur vie et leurs opinions.

Pour les marques, le manque à gagner est immense ! Les millions de photos partagées chaque jour sont une opportunité de comprendre comment les consommateurs interagissent avec les produits ou les points de ventes. Mais environ 90% des photos contenant un produit ou une marque n’ont pas de hashtag ou mot-clé associé, ce qui empêche la détection de ces contenus générés par les utilisateurs.

Test de Ditto : Le Photo Monitoring

Le Photo Monitoring est longtemps resté une technologie peu fiable et uniquement utilisée par les gouvernements ou les marques de luxe (actions anti-contrefaçon). Ditto, une société basée dans la région de Boston, apporte enfin une technologie pertinente pour les marques grâce à d’impressionnants algorithmes de reconnaissance de logos.

D’un point de vue technique, l’outil puise dans les API de Tumblr, Twitter et Instagram pour récupérer toutes les images partagées publiquement par les internautes. Chacune des images est analysée par des algorithmes de reconnaissance de logos et de reconnaissance d’expression faciale. Pour les utilisateurs finaux, la plateforme se présente comme les autres plateformes de veille traditionnelle. Les habitués retrouvent très vite leurs repères.

Chez Digital Insighters, on a testé Ditto. En voici un petit tour d’horizon, avec l’exemple de la marque Corona.

La rivière de photos utilisant le logo Corona

Ditto1

Les photos de profil des utilisateurs postant des photos de leurs bières

Ditto2

Les traditionnelles courbes de mention, impressions et niveau d’engagement

Ditto3

Les autres logos apparaissant le plus souvent dans les photos. On peut tirer des insights comme les affinités de marques non détectées par l’analyse de textes. Ici, Corona remonte avec beaucoup d’autres marques de bières de micro-brasseries américaines

Ditto4

Une liste des Key Opinion Leaders, c’est à dire les comptes influants publiant souvent des photos de Corona.

Ditto5

Les photos sont géolocalisées et présentées dans ces cartes. La précision permet d’aller même jusqu’au niveau du bar d’où les utilisateurs boivent leur Corona.

Ditto6Ditto7

 Quels usages pour les marques ?

Premièrement ce type d’outil sert aux prestations de Social Media Analytics. Comparer la différence entre les mentions et les photos qui sont partagées sur une marque ou un produit peut apporter de la valeur. Dans l’exemple sur Corona nous pouvons observer que les photos de bouteilles de bières sont partagées dans des contextes festifs (d’ivresse aussi) où il est plus simple de partager une image rapidement que d’indiquer la marque que l’on consomme.

Deuxièmement, des insights issus de l’analyse d’image peuvent servir en sponsoring. Un secteur où l’exposition compte beaucoup mais où la mesure du taux de transformation est loin d’être rigoureuse. Ici dans l’exemple Corona, nous avons noté que le logo apparaît souvent pendant des événements sportifs… et dans les jeux vidéos ! Des captures d’écran du jeux vidéo Fifa sont partagés sur les réseaux sociaux et contiennent naturellement les logo de sponsors. Mesurer l’impact du sponsoring en Earned Media est donc facilité par le photo monitoring.

Troisièmement, il existe des usages en événementiel. Identifier les lieux où le produit est le plus souvent mis en valeur (bars, boites, restaurants, hôtels, supermarchés, lieux culturels…) par les consommateurs permet aussi de mieux cibler les opérations de promotion sur le terrain.

… et quels freins ?

Il existe un frein que les marques doivent prendre en compte dans l’activation de cette veille photos. Comme au début du social media monitoring, les internautes peuvent se plaindre que leurs photos intéressent les marques. Pour désamorcer les craintes, nous recommandons l’approche de Jet Blue qui date de 2008 aux débuts de l’utilisation de Twitter par les marques.

 

Les technologies de photo monitoring viennent combler une lacune de nombreux outils de monitoring actuels. Ils offrent dès lors une nouvelle opportunité pour les marques : découvrir de nouveaux insights, comportements consommateurs ou utilisations de leur produit.

Voir le monde entier s’emballer pour #BRAGER

Voir le monde entier s’emballer pour #BRAGER

Au delà du domaine sportif, le match Brésil-Allemagne bat aussi des records sur les réseaux sociaux !
Avec pas moins de 580 000 tweets au moment où Khedira a marqué le 5ème but allemand,  Twitter annonce avoir atteint un nouveau record de  « Tweets par Minute ».

Ici nous pouvons observer sur une carte du monde, réalisée par Twitter avec Cartodb, de tous les tweets mentionnant les hashtag #BRAvGER ou #BRAGER. La méthodologie est un peu sommaire et mériterait d’être améliorée mais en tendance nous voyons les explosions de joie ou d’incrédulité à chaque but. Cette cartographie dynamique a le mérite de révéler deux choses importantes:

  • Une demi-finale de Coupe du Monde tiens en éveil la planète. Par exemple les asiatiques tweetent beaucoup alors que le match se déroule entre 3 heures et 7 heures du matin.
  • Le silence de certains pays reflète la popularité de Twitter sur ces territoires. Le plus évident ici c’est l’Allemagne qui pendant son match historique reste relativement calme. Avec un taux de pénétration de seulement 1% pour Twitter en Allemagne, on comprend mieux pourquoi ce pays attire moins l’oeil à chaque explosion de tweets.

La carte est interactive, vous pouvez naviguer dans le temps et zoomer sur chaque bulle qui représente un tweet.

Si on visualise le match Pays-Bas – Argentine qui était beaucoup moins spectaculaire et qui s’est terminé par des tirs aux buts, nous notons que le reste du monde s’est ennuyé jusqu’à la fin du match.

Les solutions pour explorer la data que nous récoltons se multiplient. La visualisation de data sous un prisme géographique ne fait que commencer à révéler ses insights.

Comment bien choisir votre outil de social media monitoring ?

Comment bien choisir votre outil de social media monitoring ?

Vous souhaitez mettre en place un dispositif de veille sur les médias sociaux. Mais où commencer ? Quels outils de social media monitoring choisir ? En l’espace de quelques années, un nombre important d’outils de monitoring ont fait leur apparition, des outils gratuits ou payants. Choisir le bon outil peut être un vrai casse-tête. Chacun d’entre eux possède des fonctionnalités différentes, répondant à certains types de besoins. Pour vous guider dans cette sélection, voici quelques clés pour bien choisir votre outil de monitoring.

Préambule sur les outils de social media monitoring

Un outil de social media monitoring détecte où et quand des mots clés (comme par exemple, votre marque ou tout autre sujet) est mentionnée sur le web. Il a la capacité d’identifier l’origine de la mention (type de sites web), la date, l’importance (audience, popularité, influence) et le sentiment associé à cette mention. Certains ont également la capacité de capter et traiter les mentions de votre marque en temps réel.

Sources : où collecte-t-il les données ?

Les outils de social media monitoring vont rechercher des données sur l’ensemble du web. Des millions de contenus sont créés chaque jour, et ces contenus ne cessent de croitre. Pas une mince affaire donc. Les outils de monitoring vont scanner tous les types de sites présents sur le web à la recherche des mots clés recherchés, et vont collecter ces données pour les rendre lisibles au sein d’une interface. Ces sources sont donc multiples et prennent des formes différentes. Les sources les plus utilisées sont les suivantes :

  • Les sites des médias (LeMonde.fr, LesEchos.fr, RTL, M6…)
  • Les sites des marques
  • Les sites spécialisés (Lequipe.fr, Auféminin.com…)
  • Les blogs
  • Les forums
  • Les réseaux sociaux
  • Les sites de contenus vidéo (YouTube, Dailymotion…)
  • Les sites de photos (Flickr…)

Une première distinction entre les outils est dès lors possible. Certains se concentrent sur une seule source, d’autres vous proposent l’intégralité des sources ci-dessus.  Par ailleurs, il est important de noter que tous les contenus ne sont pas accessibles ou ne le sont pas gratuitement. ₍₁₎

Requêtes : déterminer ce que vous allez chercher

Afin d’écouter ce que l’on dit de vous, il vous faudra paramétrer votre outil de monitoring en créant une requête. Une requête est un ensemble de mots clés ou expressions régulières définissant ce que vous souhaitez rechercher. Vous définirez également la date et les différentes sources dans lesquelles vous voulez piocher vos données.

Résultats : la première étape de l’analyse

Une fois votre requête définie, et après que la moulinette ait fait son travail, la liste exhaustive des mentions de votre marque est affichée. L’outil réalise un premier traitement des résultats : qualifications des mentions (selon la source, la date…) et effectue une première analyse des résultats (sentiment, influence, audience…)

Bien choisir votre outil de social media monitoring

Renseignez-vous sur le marché des outils de social media monitoring

Quels sont les principaux acteurs ? Les acteurs émergents ?

N’hésitez pas à demander autour de vous si vos collègues, amis ou réseaux professionnels ont déjà utilisé ce type d’outils et lesquels ils peuvent vous recommander. Attention, cependant, chacun possède ses propres besoins. Des outils qui conviennent à vos relations ne sont pas forcément ceux qui vous satisferont.

Déterminer vos besoins et objectifs

Quels sont vos besoins ? C’est une question qui parait évidente, pourtant c’est la question la plus importante. La réponse à cette question va déterminer toute la suite.

  • Ecouter vos clients ?
  • Détecter une potentielle crise sur votre marque ?
  • Evaluer les retombées de vos actions sur votre page Facebook ?
  • Analyser les retours clients sur vos produits ?
  • Gérer votre réputation ?
  • Monitorer les conversations sur vos concurrents ?
  • Faire de la curation de contenu ?
  • Identifier les influenceurs ?
  • Identifier les talents qui pourraient travailler pour votre entreprise ?
  • Quels indicateurs clés avez-vous déjà mis en place ?
  • Quels KPI devez-vous mettre en place pour mesurer l’impact de vos actions sur les médias sociaux ?
  • Etc.

Vos objectifs sont propres à votre contexte. Soyez précis. Classifiez vos objectifs court-moyen-long terme. Consultez les autres départements et vos équipes. Ils sont concernés et ont peut-être des besoins différents des vôtres. N’oubliez pas de prendre en compte également les langues, les pays spécifiques où vos besoins sont présents.

Savoir qui utilisera votre outil de monitoring

Quelles personnes seront utilisateurs de l’outil ? En interne ou votre agence ? Avez-vous besoin d’un analyste ? Qui sera en charge des relations avec votre prestataire ?

Autant de questions auquel il vous faut répondre en amont. Les réponses obtenues vous permettent à la fois de vous organiser en interne, d’identifier les personnes en charge du projet, les compétences dont vous avez besoin et par conséquent celles qui vous manquent. Elles influencent également vos critères au moment de sélectionner l’outil de monitoring, notamment en ce qui concerne l’interface et la facilité de prise en main.

Définir votre budget

Compte tenu de vos objectifs, quels budgets êtes-vous prêts à allouer à un outil de monitoring ? Plus l’outil est performant, plus le coût sera élevé. Plus l’outil est performant, moins vous passerez de temps à traiter manuellement certains éléments. N’oubliez donc pas de prendre en compte les ressources humaines nécessaires. Car un outil seul ne suffit pas.

Social Media Monitoring To Do List

Réaliser une liste de critères correspondants à vos objectifs

Il est temps de se pencher plus précisément sur les outils de social media monitoring et toutes les fonctionnalités qu’ils vous proposent. Selon vos besoins et objectifs, définissez les critères / fonctionnalités indispensables que l’outil doit posséder. Définissez également, les critères secondaires qui peuvent être les facteurs finaux de décisions, si plusieurs outils correspondant à votre première liste.

Voici une liste assez exhaustive des principales questions à se poser et des critères à considérer dans votre sélection.

Données et sources

  • Comment les données sont collectées ?
  • A quelle fréquence ? Toutes les semaines ou toutes les heures ?
  • Quels types de sources sont monitorées ? Toutes, uniquement Twitter… ?
  • Quelles sont les sources qu’ils ne peuvent pas monitorés ? Pourquoi ?
  • Un accès au Firehose ₍₂₎ Twitter pour obtenir l’intégralité des tweets ?
  • Archivent ils les données ?
  • La rétroactivité des données est-elle possible ? Sur quelle période ? Si oui, engendre-t-elle un coût supplémentaire ?

Objectifs : s’assurer de la bonne collecte des données et de l’exhaustivité des sources, tel l’accès au firehose Twitter. Il serait bien ennuyant de louper une mention de votre marque à l’origine d’une crise…

Bon à savoir : Ne pas négliger la rétroactivité des données : imaginons que pour la 2ème année consécutive, vous lancez une même campagne sur les médias sociaux. L’année dernière, vous n’aviez pas d’outils de monitoring. Vous savez qu’il est possible de remonter dans le temps et souhaitez comparer les retombées des deux campagnes. Est-ce que votre outil le permet ? Tous les outils de social media monitoring archivent une partie des données ou peuvent être en mesure de les collecter à postériori. Il vous est possible habituellement de remonter sur les 3 mois antérieurs. Certains proposent 6 mois ou un an.

Langues et pays

Vous gérez des marques internationales. La capacité des outils à traiter plusieurs langues devient dès lors un critère important. Même si vous ne souhaitez pas monitorer toutes vos marques, dans tous les pays tout de suite, pensez à vos potentiels futurs besoins.

  • Quelles langues sont monitorées ?
  • Quels pays ? Est-il possible d’avoir une segmentation par villes ?
  • Les réseaux sociaux spécifiques à certains pays sont-ils inclus dans les sources monitorées ?

Objectif : s’assurer que les pays ou langues faisant partie de vos besoins sont bien traitées

Spam

  • Quelle stratégie de lutte anti-spam a été mise en place ? Automatique ? Manuel ?
  • Comment l’outil traite les contenus dupliqués ?

Objectif : Toute pollution est une perte de temps. Assurez-vous de ne pas en perdre 😉

Paramètres et requêtes

  • Comment paramétrer mes recherches ?
  • Comment sont construites les requêtes ?
  • L’outil utilise-t-il les opérateurs booléens ?
  • Y a-t-il d’autres façons de construire une requête ?
  • Peut-on inclure et exclure des termes ? Appliquer des filtres ?

Objectif : Déterminer les connaissances à acquérir pour prendre en main l’outil et effectuer des requêtes pertinentes. Evaluer ainsi la facilité de prise en main de l’outil.

Fonctionnalités et metrics

  • Quels sont les metrics disponibles dans l’outil de monitoring ? Influence, géolocalisation, audience… ?
  • Quels sont les indicateurs clés ?
  • Comment ont-ils été intégrés dans l’outil ? Provenance externe ou calcul du prestataire ?
  • L’analyse du sentiment est-elle disponible ?
  • Est-il possible d’effectuer une recherche de mots clés à l’intérieur de la requête ?
  • Peut-on filtrer les résultats en fonction des sources, du sentiment, de sujets ?
  • Quelle est la liberté dans le traitement manuel des données (pour faciliter le travail de l’analyste) ?

Objectif : s’assurer que l’outil fournit des indicateurs pertinents répondant à vos besoins. Et offre à l’analyste une certaine main sur l’outil. Restez flexibles. Vous pouvez découvrir d’autres indicateurs / fonctionnalités auxquels vous n’avez pas pensé, et qui seront utiles.

Bon à savoir : des outils de social media monitoring ont mis en place leurs propres indicateurs comme par exemple un indice d’e-réputation, un score d’influence ou d’engagement. Ainsi, il est important de comprendre ces indicateurs, leurs calculs pour en cerner l’utilité et la pertinence. Les outils intègrent également des indicateurs externes que vous utilisez peut être déjà comme le score Klout, l’audience des sites etc.

Analyse du sentiment

  • L’analyse du sentiment est-elle automatisée ?
  • Si oui, est-elle fiable ? Quel est le taux d’erreur ?
  • Est-il possible de la changer manuellement pour chaque mention ?
  • L’analyse du sentiment est-elle disponible dans toutes les langues ?

Objectif : Identifier le besoin en ressources humaines pour parer au manque de l’analyse du sentiment automatique.

Bon à savoir : il y a toujours une marge d’erreur dans l’analyse du sentiment automtisé.

Data visualization : graphs et dashboards

  • Quelles sont les visualisations de données proposées ? (chiffres, camemberts, bars, chronologie…)
  • Quelles sont les fonctionnalités des dashboards déjà intégrés ?
  • Les dashboards peuvent-ils être personnalisés par les utilisateurs ?
  • Peut-on générer des rapports automatiques des dashboards ? Peuvent-ils être personnalisés ? A quel niveau ?

Objectif : Faciliter la lecture des résultats et la personnalisation de l’outil en fonction de vos besoins

Export des données

  • Peut-on exporter les données et les représentations graphiques en dehors de l’outil ?
  • Sous quel format ? Excel, PDF, Powerpoint, jpeg … ?

Objectif : Faciliter le partage des données en interne, les intégrer dans vos présentations…

Autres fonctionnalités

  • Ont-ils des fonctionnalités spécifiques à votre industrie ?
  • Peut-on configurer des alertes par mail ? Avec quels critères ?
  • Peut-on connecter sa page Facebook, son compte Twitter ?
  • Y a-t-il des fonctionnalités pour faciliter le travail en équipe sur l’outil ? Assigner des tâches ? Intégrer des notes ?
NB : les alertes, très utiles pour la gestion de crise par exemple.

Navigation et interface

Bien que je considère ce point comme un critère secondaire pour les besoins qui me sont propres, il peut ne pas l’être pour tout le monde. La simplicité de navigation ou le design de l’interface peuvent tout à fait faire parti des critères de décision. Après tout, vous et votre équipe, allez utiliser l’outil fréquemment. Si ce n’est tous les jours. Autant qu’il vous plaise 😉

Installation, formation et maintenance

Les modalités d’installation peuvent également prendre une place dans votre prise de décision. Bien souvent les outils sont accessibles depuis un navigateur web, et il n’y a pas besoin d’installation. Avec l’installation, les prestataires peuvent également vous proposer une formation de prise en main de l’outil. Elle peut se révéler utile pour former vos équipes, faciliter la prise en main, ou obtenir des astuces sur l’utilisation de l’outil.

Enfin, renseignez-vous également sur la maintenance. Que se passe-t-il si l’outil tombe en panne ? Si vous avez un problème ? Une erreur dans la collecte des données ?

NB : Identifier les services proposés autour de l’outil pour s’assurer du bon fonctionnement. Assurez-vous d’avoir un point de contact commercial ET technique pour vous accompagner sur les diverses problématiques.

Tarifs

La structuration des tarifs s’organise bien souvent autour des 3 critères suivants :

  • Le volume de données
  • Le nombre de requêtes
  • Le nombre d’accès utilisateurs

Identifier les utilisateurs de l’outil et les sujets à monitorer en amont vous permet donc d’estimer les coûts associés. Par ailleurs, n’hésitez pas à demander aux prestataires, sur un certain nombre de mots clés (marque, produits, concurrents…), les volumes de données. Cela vous donnera une première idée des volumes.

Au début, quelques requêtes peuvent vous suffire : sur vos marques, vos produits. De nouveaux besoins peuvent ensuite émerger : une nouvelle campagne, un concurrent, des sujets sensibles… Anticiper ces évolutions. Prenez en compte dans votre décision les coûts supplémentaires pouvant intervenir sur du plus long-terme.

Avant de vous engager, demander la période minimum d’engagement. Généralement, il est d’une année.

Indispensable

Testez vous-même l’outil

Rien de mieux qu’une prise en main concrète pour évaluer si l’outil correspond bien à vos besoins et objectifs. Utilisez la liste de critères indispensables préalablement définis. Puis évaluer l’outil en fonction de cette dernière : pertinence de la collecte des données, facilité de prise en main, rapidité de l’outil, fonctionnalités qui vous seront vraiment utiles… Regardez également celles qui sont des « nice to have ». Elles pourront peut-être se révéler utiles avec le temps.

La majorité des outils de social media monitoring vous propose une période d’essai d’une à deux semaines. Si ce n’est pas le cas, n’hésitez pas à la demander.

L’outil seul ne suffit pas

Prenez bien en compte qu’un outil seul ne suffit pas. Pour réaliser une veille efficace et utile, il vous faudra à la fois des compétences et du temps. En interne ou en externe.

Conclusion

Avec ces informations, vous devriez avoir désormais une idée suffisamment complète des éléments à prendre en compte dans le choix de votre outil de social media monitoring. Comme tout choix de prestataire, il est important de se poser les bonnes questions et surtout de bien définir en amont vos besoins.

Identifier vos objectifs en termes de monitoring, les principales fonctionnalités que vous recherchez dans un outil, les impératifs pour sélectionner un outil efficace tels que la bonne collecte des données, la marge d’erreur dans l’analyse du sentiment automatisé…

Vous êtes dans ces démarches et avez besoin de conseil ?

N’hésitez pas à nous contacter !

Contact

 

₍₁₎ Les outils de social media monitoring sont en mesure de scanner tous les espaces publics. Cela signifie qu’ils n’ont pas accès à toutes les données. Certains sites ont vite compris l’enjeu autour de cette donnée sociale, et ont restreint leurs accès. Ce sont notamment les réseaux sociaux. Twitter donne accès à une partie de ces données gratuitement. Avoir accès à l’exhaustivité des tweets, soit 500 millions de tweets par jour, est possible mais n’est pas gratuit. Facebook donne uniquement accès aux pages et groupes publics. Google+, LinkedIn, Viadeo, Pinterest, Instagram et les autres réseaux sociaux ont chacun des politiques différentes. C’est pourquoi vous ne retrouvez pas toujours ces différents réseaux sociaux dans les outils de monitoring, ou de moins l’exhaustivité des contenus recherchés.
₍₂₎ Le firehose est le nom communément donné au flux massif et en temps réel des tweets publiés chaque jour. Twitter donne différents accès à son firehose.