Target a un nouveau CEO, Brian Cornell. Cet ancien de PepsiCo est en poste depuis août 2014. Il a accepté cette mission avec l’objectif de relancer la troisième enseigne de grande distribution des Etats-Unis et reconstruire la réputation du groupe. Un portrait sur Fortune témoigne de ses mesures phares avec par exemple, la mise en exergue d’une Social War Room et une utilisation quotidienne dans le social media monitoring. Cette mesure symbolise le changement que Brian Cornell apporte à Target.
Reconstruire la réputation de Target
Fin 2013, Target a été victime d’un immense piratage où 40 millions de carte bleues ont été dérobées. Brian Krebs, un journaliste expert en sécurité informatique, avait dévoilé l’existence de cette attaque informatique. L’annonce avait ensuite viralisé sur les médias sociaux. Target avait maladroitement joué la défensive en minimisant les conséquences et sous-estimant le besoin d’information des clients/victimes qui se plaignaient en ligne. Cela a coûté 148 millions de dollars en réparation, une chute de 6% du prix de l’action au moment de l’annonce et une baisse de fréquentation des magasins en 2014.
Pour ne plus se faire surprendre, Brian Cornell a continué de développer la Social War Room (aussi appelée Social Media Command Center) au siège de Target et lui a donné un rôle central. Il s’y rend tous les matins et demande un rapport deux fois par jour.
Avec cette mise en valeur de l’écoute des réseaux sociaux, Target rempli deux objectifs : premièrement, les crises venant du digital ne prendront plus Target de court. Deuxièmement, la chaîne envoie un signal fort sur sa volonté d’approfondir sa relation et la compréhension des attentes clients. Ces efforts servent le CEO et sa reconstruction de la réputation de Target.
Une tendance chez les grandes marques
Les social war rooms au sein des entreprises sont encore des outils de communication efficaces qui impressionnent les médias. Dans les entreprises notables, Gatorade (PepsiCo) avait dégainé en premier en 2010.
En 2012, Nestlé élève le niveau en communiquant sur une « Digital Acceleration Team » basée au siège. De plus, la marque formerait les employés au digital depuis une salle de contrôle similaire.
Ne négligez pas l’ingrédient clé : l’humain
Finalement, ces salles de contrôle sont de bons moyens de communiquer en interne et en externe sur la volonté d’écouter et digitaliser l’entreprise. Le risque est ici de voir ces centres de commande ne devenir que des objets de communication. Combien de salle de contrôle seront progressivement abandonnées une fois l’effet d’annonce passé ? L’ingrédient clé du succès d’une social war room se trouve dans les personnes à sa tête : compétence et qualité du travail des analystes, veilleurs et community managers derrière ces écrans. Leur rôle sera d’assurer la veille en continu et diffuser en interne tous les insights pertinents aux dirigeants, aux équipes marketing, communication, RH etc. Disposer des meilleurs technologies est certes utile, mais encore faut il savoir les utiliser à bon escient et efficacement.
Mardi 10 mars, une annonce Facebook a fait l’effet d’une bombe dans la communauté marketing et l’industrie du social media intelligence. Facebook ouvre son firehose !
Facebook s’allie en effet avec Datasift pour lancer « Topic Data » et donner un accès à certaines informations sur les statuts Facebook de leurs utilisateurs. Nous nous sommes penchés sur la nouvelle et l’avons décortiquée pour vous. Elle se décompose notamment en deux éléments, la notion de « firehose » et les résultats à attendre de « Topic Data ».
Un Firehose ? Qu’est-ce que c’est ?
Le terme « Firehose » nous vient de Twitter. En 2010, Twitter a décidé de commercialiser l’accès aux tweets via leur API.
Trois options sont alors possibles :
Spritzer : Un accès gratuit à environ 1% des tweets, via l’API publique.
Gardenhose : Un « tuyau de jardinier » pour capter entre 10 et 20% des tweets, via une API délivrée par Twitter au cas par cas.
Firehose : Un accès à 100% des tweets publiques (soit 500 millions de tweets par jour) en temp réel. Cette « lance à incendie » coûte $1 pour 1 000 tweets.
Trois sociétés spécialisées se sont vite démarquées en achetant l’accès au Firehose et en proposant de le revendre : Gnip (racheté par Twitter), Topsy (racheté par Apple) et Datasift (assailli de rumeurs d’acquisition). Datasift est partenaire avec la majorité des médias sociaux pour proposer un accès aux API de Twitter, Reddit, WordPress, Tumblr, Wikipedia, Youtube, IMDb etc… ces API sont des briques indispensables pour faire de la veille sur les médias sociaux. Et jusqu’à présent Facebook ne donnait un accès qu’aux pages et groupes publiques.
Topic Data de Facebook : des données anonymisées
L’annonce de « Topic Data » promet de pouvoir tirer des insights sur les 1.3 milliards d’utilisateurs Facebook. Il suffit d’entrer des requêtes sur le nom de marque ou n’importe quel mot-clé pertinent pour ensuite obtenir des données anonymisées sur le sujet. Les données sont livrées par Facebook à Datasift qui les redistribue à ses clients. Facebook et Datasift ont travaillé avec Privacy by Design, une organisation gouvernementale canadienne dédiée à l’anonymisation des données afin de protéger la vie privée de leurs utilisateurs. Cette option permet à Facebook de puiser dans l’immense majorité des statuts/photos ou vidéos que ses utilisateurs publient en privé, tout en gardant leur anonymat.
Ces règles du jeu contraignent donc l’industrie à changer certaines pratiques, sur le plan de l’analyse mais également sur le degré de confiance à accorder aux insights.
Les limites du vrai-faux Firehose
Étant donné que l’accès a « Topic Data » est limité, on ne peut réellement pas l’appeler un « Firehose ». Nous notons les quelques limites qui méritent d’être énoncées :
Pas d’accès aux données brutes : Les données ne donneront que des chiffres et peu de détails sur le contenu réel. Si vous avez déjà fait un export Excel des analytics d’une page Facebook, attendez vous au même principe.
La Boîte noire : En l’absence de données brutes, il faut faire confiance à Facebook pour filtrer le bruit, le spam, le faux… mais aussi pour assurer un niveau de qualité dans l’analyse du texte. En janvier Facebook a fait l’acquisition de Wat.ai des spécialistes en « Natural Language Processing », donc on peut espérer un taux de fiabilité habituel, soit autour de 75%. Par exemple, en cas de mauvaise qualification automatisée de l’ironie, il sera impossible d’estimer ou rectifier des erreurs à la main.
Absence d’archives : La data n’est disponible que sur 30 jours glissant et ne permet pas de consulter le passé. Cette limite complique l’analyse des saisonnalités ou la détection des tendances et signaux faibles.
100 personnes minimum : Si la marque ou le marché est trop petit et insuffisamment mentionné, Facebook ne livrera pas de données afin de ne pas compromettre l’anonymat des utilisateurs.
Données uniquement disponibles sur les US et UK : Ces marchés sont plus matures sur le sujet et sont naturellement les premiers à bénéficier de Topic Data. Il s’agit néanmoins d’un déploiement progressif, les autres pays et langues devraient suivre.
Nous voyons ici une limitation technologique qui peut poser problème. Un simple accès à un dashboard ou à un outil de veille n’est pas suffisant. Il s’agit également de s’assurer de la véracité de la donnée et de combler les lacunes des outils par de l’analyse humaine. Nous avons déjà des approches et méthodologies qui permettront de faciliter la compréhension et la contextualisation du sujet.
Si vous voulez plus de détails sur les données disponibles dans l’API, cliquez ici.
Des opportunités dans la Social TV ?
Pour conclure, plusieurs industries vont pouvoir bénéficier de Topic Data. Par exemple, la social TV voit un nouveau monde d’opportunités s’ouvrir ! Les français sont nombreux à commenter les émissions de TV en direct de leurs statuts Facebook. En analysant ces données les émissions pourront adapter leur contenu, jauger les audiences intéressées et également estimer l’impact de « bad buzz » perçus sur Twitter mais pas forcément ailleurs. Nielsen Twitter TV Ratings aura des sources complémentaires de données à apporter aux acteurs de la Social TV.
Facebook Topic Data est une progression intéressante pour notre secteur et va fournir des insights intéressants aux entreprises souhaitant toujours mieux comprendre leurs clients, leur marché et leurs parties prenantes. Les limites de Topic Data ne seront que technologiques et pourront être ménagées par de bons analystes.
Alors que les publicitaires pensaient avoir trouvé la bonne recette pour cartonner au Superbowl, Nationwide a fait tout le contraire. Après le match, c’est la marque d’assurance Nationwide qui se place en haut du classement des marques les plus évoquées sur le web pendant cette soirée avec 238 000 mentions, devant les 225 000 de Budweiser .
La formule préconisée par les agences est la suivante :
1. Publication de la pub en amont sur Youtube (entre 2 et 7 jours avant)
2. Seeding via les comptes sociaux
3. Activation RP et RP 2.0
4. Realtime marketing pendant le SuperBowl avec une équipe aux aguets
5. Interaction avec les autres marques sur Twitter
Mais Nationwide a fait différemment. Avant le Superbowl ils n’ont pas posté la pub sur Youtube, ils n’en ont parlé à personne ni fait de teasing sur les médias sociaux. Voici leur pub qui a marqué les esprits :
On joue sur l’aspect choc et morbide complètement à contre-pied de l’état d’esprit des autres publicités. Nationwide a décidé de ne pas dévoiler ce spot sur les accidents domestiques avant le match. Contrairement à la publicité contre la violence domestique de la NFL qui cherchait aussi le choc émotionnel, sa diffusion anticipée a réduit son impact sur le public américain. Plusieurs journalistes se sont même émus du fait que la magie des pubs du SuperBowl avaient disparu.
Cette formule choc comporte aussi un risque, qui pose la question du prix à payer quand on cherche à choquer. D’après Amobee une société d’analytics américaine, 64% des mentions de la pub Nationwide étaient négatives… la recherche de l’émotion a un prix. Effet supplémentaire, les internautes ont publié des mèmes avec le jeune garçon de la pub.
Aujourd’hui, NationWide a déclaré au Wall Street Journal qu’ils assumaient l’aspect choc de la publicité et se félicitaient d’avoir lancé une conversation nationale sur les accidents domestiques qui touchent les enfants.
En une décennie, les solutions de veille web se sont améliorées mais aussi complexifiées. Les marques ont les moyens de repérer et analyser les prises de parole publics, que ce soit sur Twitter, Facebook, un blog, un forum, un site d’avis, son Tumblr, un site d’information etc… Pour identifier ces avis, il faut que l’internaute rédige a minima le nom de la marque ou de l’entreprise. Cependant les usages sur le web changent. Avec Instagram, Facebook, Tumblr, Snapchat, Shots, la tendance est au partage de photos depuis son smartphone. La teneur de ces photos ne change pas fondamentalement, c’est toujours un moyen d’expression pour les internautes voulant partager leur vie et leurs opinions.
Pour les marques, le manque à gagner est immense ! Les millions de photos partagées chaque jour sont une opportunité de comprendre comment les consommateurs interagissent avec les produits ou les points de ventes. Mais environ 90% des photos contenant un produit ou une marque n’ont pas de hashtag ou mot-clé associé, ce qui empêche la détection de ces contenus générés par les utilisateurs.
Test de Ditto : Le Photo Monitoring
Le Photo Monitoring est longtemps resté une technologie peu fiable et uniquement utilisée par les gouvernements ou les marques de luxe (actions anti-contrefaçon). Ditto, une société basée dans la région de Boston, apporte enfin une technologie pertinente pour les marques grâce à d’impressionnants algorithmes de reconnaissance de logos.
D’un point de vue technique, l’outil puise dans les API de Tumblr, Twitter et Instagram pour récupérer toutes les images partagées publiquement par les internautes. Chacune des images est analysée par des algorithmes de reconnaissance de logos et de reconnaissance d’expression faciale. Pour les utilisateurs finaux, la plateforme se présente comme les autres plateformes de veille traditionnelle. Les habitués retrouvent très vite leurs repères.
Chez Digital Insighters, on a testé Ditto. En voici un petit tour d’horizon, avec l’exemple de la marque Corona.
La rivière de photos utilisant le logo Corona
Les photos de profil des utilisateurs postant des photos de leurs bières
Les traditionnelles courbes de mention, impressions et niveau d’engagement
Les autres logos apparaissant le plus souvent dans les photos. On peut tirer des insights comme les affinités de marques non détectées par l’analyse de textes. Ici, Corona remonte avec beaucoup d’autres marques de bières de micro-brasseries américaines
Une liste des Key Opinion Leaders, c’est à dire les comptes influants publiant souvent des photos de Corona.
Les photos sont géolocalisées et présentées dans ces cartes. La précision permet d’aller même jusqu’au niveau du bar d’où les utilisateurs boivent leur Corona.
Quels usages pour les marques ?
Premièrement ce type d’outil sert aux prestations de Social Media Analytics. Comparer la différence entre les mentions et les photos qui sont partagées sur une marque ou un produit peut apporter de la valeur. Dans l’exemple sur Corona nous pouvons observer que les photos de bouteilles de bières sont partagées dans des contextes festifs (d’ivresse aussi) où il est plus simple de partager une image rapidement que d’indiquer la marque que l’on consomme.
Deuxièmement, des insights issus de l’analyse d’image peuvent servir en sponsoring. Un secteur où l’exposition compte beaucoup mais où la mesure du taux de transformation est loin d’être rigoureuse. Ici dans l’exemple Corona, nous avons noté que le logo apparaît souvent pendant des événements sportifs… et dans les jeux vidéos ! Des captures d’écran du jeux vidéo Fifa sont partagés sur les réseaux sociaux et contiennent naturellement les logo de sponsors. Mesurer l’impact du sponsoring en Earned Media est donc facilité par le photo monitoring.
Troisièmement, il existe des usages en événementiel. Identifier les lieux où le produit est le plus souvent mis en valeur (bars, boites, restaurants, hôtels, supermarchés, lieux culturels…) par les consommateurs permet aussi de mieux cibler les opérations de promotion sur le terrain.
… et quels freins ?
Il existe un frein que les marques doivent prendre en compte dans l’activation de cette veille photos. Comme au début du social media monitoring, les internautes peuvent se plaindre que leurs photos intéressent les marques. Pour désamorcer les craintes, nous recommandons l’approche de Jet Blue qui date de 2008 aux débuts de l’utilisation de Twitter par les marques.
Les technologies de photo monitoring viennent combler une lacune de nombreux outils de monitoring actuels. Ils offrent dès lors une nouvelle opportunité pour les marques : découvrir de nouveaux insights, comportements consommateurs ou utilisations de leur produit.
Vous souhaitez mettre en place un dispositif de veille sur les médias sociaux. Mais où commencer ? Quels outils de social media monitoring choisir ? En l’espace de quelques années, un nombre important d’outils de monitoring ont fait leur apparition, des outils gratuits ou payants. Choisir le bon outil peut être un vrai casse-tête. Chacun d’entre eux possède des fonctionnalités différentes, répondant à certains types de besoins. Pour vous guider dans cette sélection, voici quelques clés pour bien choisir votre outil de monitoring.
Préambule sur les outils de social media monitoring
Un outil de social media monitoring détecte où et quand des mots clés (comme par exemple, votre marque ou tout autre sujet) est mentionnée sur le web. Il a la capacité d’identifier l’origine de la mention (type de sites web), la date, l’importance (audience, popularité, influence) et le sentiment associé à cette mention. Certains ont également la capacité de capter et traiter les mentions de votre marque en temps réel.
Sources : où collecte-t-il les données ?
Les outils de social media monitoring vont rechercher des données sur l’ensemble du web. Des millions de contenus sont créés chaque jour, et ces contenus ne cessent de croitre. Pas une mince affaire donc. Les outils de monitoring vont scanner tous les types de sites présents sur le web à la recherche des mots clés recherchés, et vont collecter ces données pour les rendre lisibles au sein d’une interface. Ces sources sont donc multiples et prennent des formes différentes. Les sources les plus utilisées sont les suivantes :
[su_list icon= »icon: file-text »]
Les sites des médias (LeMonde.fr, LesEchos.fr, RTL, M6…)
Les sites des marques
Les sites spécialisés (Lequipe.fr, Auféminin.com…)
Les blogs
Les forums
Les réseaux sociaux
Les sites de contenus vidéo (YouTube, Dailymotion…)
Les sites de photos (Flickr…)[/su_list]
Une première distinction entre les outils est dès lors possible. Certains se concentrent sur une seule source, d’autres vous proposent l’intégralité des sources ci-dessus. Par ailleurs, il est important de noter que tous les contenus ne sont pas accessibles ou ne le sont pas gratuitement. ₍₁₎
Requêtes : déterminer ce que vous allez chercher
Afin d’écouter ce que l’on dit de vous, il vous faudra paramétrer votre outil de monitoring en créant une requête. Une requête est un ensemble de mots clés ou expressions régulières définissant ce que vous souhaitez rechercher. Vous définirez également la date et les différentes sources dans lesquelles vous voulez piocher vos données.
Résultats : la première étape de l’analyse
Une fois votre requête définie, et après que la moulinette ait fait son travail, la liste exhaustive des mentions de votre marque est affichée. L’outil réalise un premier traitement des résultats : qualifications des mentions (selon la source, la date…) et effectue une première analyse des résultats (sentiment, influence, audience…)
Bien choisir votre outil de social media monitoring
Renseignez-vous sur le marché des outils de social media monitoring
Quels sont les principaux acteurs ? Les acteurs émergents ?
N’hésitez pas à demander autour de vous si vos collègues, amis ou réseaux professionnels ont déjà utilisé ce type d’outils et lesquels ils peuvent vous recommander. Attention, cependant, chacun possède ses propres besoins. Des outils qui conviennent à vos relations ne sont pas forcément ceux qui vous satisferont.
Déterminer vos besoins et objectifs
Quels sont vos besoins ? C’est une question qui parait évidente, pourtant c’est la question la plus importante. La réponse à cette question va déterminer toute la suite.
[su_list icon= »icon: search »]
Ecouter vos clients ?
Détecter une potentielle crise sur votre marque ?
Evaluer les retombées de vos actions sur votre page Facebook ?
Analyser les retours clients sur vos produits ?
Gérer votre réputation ?
Monitorer les conversations sur vos concurrents ?
Faire de la curation de contenu ?
Identifier les influenceurs ?
Identifier les talents qui pourraient travailler pour votre entreprise ?
Quels indicateurs clés avez-vous déjà mis en place ?
Quels KPI devez-vous mettre en place pour mesurer l’impact de vos actions sur les médias sociaux ?
Etc.[/su_list]
Vos objectifs sont propres à votre contexte. Soyez précis. Classifiez vos objectifs court-moyen-long terme. Consultez les autres départements et vos équipes. Ils sont concernés et ont peut-être des besoins différents des vôtres. N’oubliez pas de prendre en compte également les langues, les pays spécifiques où vos besoins sont présents.
Savoir qui utilisera votre outil de monitoring
Quelles personnes seront utilisateurs de l’outil ? En interne ou votre agence ? Avez-vous besoin d’un analyste ? Qui sera en charge des relations avec votre prestataire ?
Autant de questions auquel il vous faut répondre en amont. Les réponses obtenues vous permettent à la fois de vous organiser en interne, d’identifier les personnes en charge du projet, les compétences dont vous avez besoin et par conséquent celles qui vous manquent. Elles influencent également vos critères au moment de sélectionner l’outil de monitoring, notamment en ce qui concerne l’interface et la facilité de prise en main.
Définir votre budget
Compte tenu de vos objectifs, quels budgets êtes-vous prêts à allouer à un outil de monitoring ? Plus l’outil est performant, plus le coût sera élevé. Plus l’outil est performant, moins vous passerez de temps à traiter manuellement certains éléments. N’oubliez donc pas de prendre en compte les ressources humaines nécessaires. Car un outil seul ne suffit pas.
Réaliser une liste de critères correspondants à vos objectifs
Il est temps de se pencher plus précisément sur les outils de social media monitoring et toutes les fonctionnalités qu’ils vous proposent. Selon vos besoins et objectifs, définissez les critères / fonctionnalités indispensables que l’outil doit posséder. Définissez également, les critères secondaires qui peuvent être les facteurs finaux de décisions, si plusieurs outils correspondant à votre première liste.
Voici une liste assez exhaustive des principales questions à se poser et des critères à considérer dans votre sélection.
Données et sources
Comment les données sont collectées ?
A quelle fréquence ? Toutes les semaines ou toutes les heures ?
Quels types de sources sont monitorées ? Toutes, uniquement Twitter… ?
Quelles sont les sources qu’ils ne peuvent pas monitorés ? Pourquoi ?
Un accès au Firehose ₍₂₎ Twitter pour obtenir l’intégralité des tweets ?
Archivent ils les données ?
La rétroactivité des données est-elle possible ? Sur quelle période ? Si oui, engendre-t-elle un coût supplémentaire ?
Objectifs : s’assurer de la bonne collecte des données et de l’exhaustivité des sources, tel l’accès au firehose Twitter. Il serait bien ennuyant de louper une mention de votre marque à l’origine d’une crise…
Bon à savoir : Ne pas négliger la rétroactivité des données : imaginons que pour la 2ème année consécutive, vous lancez une même campagne sur les médias sociaux. L’année dernière, vous n’aviez pas d’outils de monitoring. Vous savez qu’il est possible de remonter dans le temps et souhaitez comparer les retombées des deux campagnes. Est-ce que votre outil le permet ? Tous les outils de social media monitoring archivent une partie des données ou peuvent être en mesure de les collecter à postériori. Il vous est possible habituellement de remonter sur les 3 mois antérieurs. Certains proposent 6 mois ou un an.
Langues et pays
Vous gérez des marques internationales. La capacité des outils à traiter plusieurs langues devient dès lors un critère important. Même si vous ne souhaitez pas monitorer toutes vos marques, dans tous les pays tout de suite, pensez à vos potentiels futurs besoins.
Quelles langues sont monitorées ?
Quels pays ? Est-il possible d’avoir une segmentation par villes ?
Les réseaux sociaux spécifiques à certains pays sont-ils inclus dans les sources monitorées ?
Objectif : s’assurer que les pays ou langues faisant partie de vos besoins sont bien traitées
Spam
Quelle stratégie de lutte anti-spam a été mise en place ? Automatique ? Manuel ?
Comment l’outil traite les contenus dupliqués ?
Objectif : Toute pollution est une perte de temps. Assurez-vous de ne pas en perdre 😉
Paramètres et requêtes
Comment paramétrer mes recherches ?
Comment sont construites les requêtes ?
L’outil utilise-t-il les opérateurs booléens ?
Y a-t-il d’autres façons de construire une requête ?
Peut-on inclure et exclure des termes ? Appliquer des filtres ?
Objectif : Déterminer les connaissances à acquérir pour prendre en main l’outil et effectuer des requêtes pertinentes. Evaluer ainsi la facilité de prise en main de l’outil.
Fonctionnalités et metrics
Quels sont les metrics disponibles dans l’outil de monitoring ? Influence, géolocalisation, audience… ?
Quels sont les indicateurs clés ?
Comment ont-ils été intégrés dans l’outil ? Provenance externe ou calcul du prestataire ?
L’analyse du sentiment est-elle disponible ?
Est-il possible d’effectuer une recherche de mots clés à l’intérieur de la requête ?
Peut-on filtrer les résultats en fonction des sources, du sentiment, de sujets ?
Quelle est la liberté dans le traitement manuel des données (pour faciliter le travail de l’analyste) ?
Objectif : s’assurer que l’outil fournit des indicateurs pertinents répondant à vos besoins. Et offre à l’analyste une certaine main sur l’outil. Restez flexibles. Vous pouvez découvrir d’autres indicateurs / fonctionnalités auxquels vous n’avez pas pensé, et qui seront utiles.
Bon à savoir : des outils de social media monitoring ont mis en place leurs propres indicateurs comme par exemple un indice d’e-réputation, un score d’influence ou d’engagement. Ainsi, il est important de comprendre ces indicateurs, leurs calculs pour en cerner l’utilité et la pertinence. Les outils intègrent également des indicateurs externes que vous utilisez peut être déjà comme le score Klout, l’audience des sites etc.
Analyse du sentiment
L’analyse du sentiment est-elle automatisée ?
Si oui, est-elle fiable ? Quel est le taux d’erreur ?
Est-il possible de la changer manuellement pour chaque mention ?
L’analyse du sentiment est-elle disponible dans toutes les langues ?
Objectif : Identifier le besoin en ressources humaines pour parer au manque de l’analyse du sentiment automatique.
Bon à savoir : il y a toujours une marge d’erreur dans l’analyse du sentiment automtisé.
Data visualization : graphs et dashboards
Quelles sont les visualisations de données proposées ? (chiffres, camemberts, bars, chronologie…)
Quelles sont les fonctionnalités des dashboards déjà intégrés ?
Les dashboards peuvent-ils être personnalisés par les utilisateurs ?
Peut-on générer des rapports automatiques des dashboards ? Peuvent-ils être personnalisés ? A quel niveau ?
Objectif : Faciliter la lecture des résultats et la personnalisation de l’outil en fonction de vos besoins
Export des données
Peut-on exporter les données et les représentations graphiques en dehors de l’outil ?
Sous quel format ? Excel, PDF, Powerpoint, jpeg … ?
Objectif : Faciliter le partage des données en interne, les intégrer dans vos présentations…
Autres fonctionnalités
Ont-ils des fonctionnalités spécifiques à votre industrie ?
Peut-on configurer des alertes par mail ? Avec quels critères ?
Peut-on connecter sa page Facebook, son compte Twitter ?
Y a-t-il des fonctionnalités pour faciliter le travail en équipe sur l’outil ? Assigner des tâches ? Intégrer des notes ?
NB : les alertes, très utiles pour la gestion de crise par exemple.
Navigation et interface
Bien que je considère ce point comme un critère secondaire pour les besoins qui me sont propres, il peut ne pas l’être pour tout le monde. La simplicité de navigation ou le design de l’interface peuvent tout à fait faire parti des critères de décision. Après tout, vous et votre équipe, allez utiliser l’outil fréquemment. Si ce n’est tous les jours. Autant qu’il vous plaise 😉
Installation, formation et maintenance
Les modalités d’installation peuvent également prendre une place dans votre prise de décision. Bien souvent les outils sont accessibles depuis un navigateur web, et il n’y a pas besoin d’installation. Avec l’installation, les prestataires peuvent également vous proposer une formation de prise en main de l’outil. Elle peut se révéler utile pour former vos équipes, faciliter la prise en main, ou obtenir des astuces sur l’utilisation de l’outil.
Enfin, renseignez-vous également sur la maintenance. Que se passe-t-il si l’outil tombe en panne ? Si vous avez un problème ? Une erreur dans la collecte des données ?
NB : Identifier les services proposés autour de l’outil pour s’assurer du bon fonctionnement. Assurez-vous d’avoir un point de contact commercial ET technique pour vous accompagner sur les diverses problématiques.
Tarifs
La structuration des tarifs s’organise bien souvent autour des 3 critères suivants :
Le volume de données
Le nombre de requêtes
Le nombre d’accès utilisateurs
Identifier les utilisateurs de l’outil et les sujets à monitorer en amont vous permet donc d’estimer les coûts associés. Par ailleurs, n’hésitez pas à demander aux prestataires, sur un certain nombre de mots clés (marque, produits, concurrents…), les volumes de données. Cela vous donnera une première idée des volumes.
Au début, quelques requêtes peuvent vous suffire : sur vos marques, vos produits. De nouveaux besoins peuvent ensuite émerger : une nouvelle campagne, un concurrent, des sujets sensibles… Anticiper ces évolutions. Prenez en compte dans votre décision les coûts supplémentaires pouvant intervenir sur du plus long-terme.
Avant de vous engager, demander la période minimum d’engagement. Généralement, il est d’une année.
Indispensable
Testez vous-même l’outil
Rien de mieux qu’une prise en main concrète pour évaluer si l’outil correspond bien à vos besoins et objectifs. Utilisez la liste de critères indispensables préalablement définis. Puis évaluer l’outil en fonction de cette dernière : pertinence de la collecte des données, facilité de prise en main, rapidité de l’outil, fonctionnalités qui vous seront vraiment utiles… Regardez également celles qui sont des « nice to have ». Elles pourront peut-être se révéler utiles avec le temps.
La majorité des outils de social media monitoring vous propose une période d’essai d’une à deux semaines. Si ce n’est pas le cas, n’hésitez pas à la demander.
L’outil seul ne suffit pas
Prenez bien en compte qu’un outil seul ne suffit pas. Pour réaliser une veille efficace et utile, il vous faudra à la fois des compétences et du temps. En interne ou en externe.
Conclusion
Avec ces informations, vous devriez avoir désormais une idée suffisamment complète des éléments à prendre en compte dans le choix de votre outil de social media monitoring. Comme tout choix de prestataire, il est important de se poser les bonnes questions et surtout de bien définir en amont vos besoins.
Identifier vos objectifs en termes de monitoring, les principales fonctionnalités que vous recherchez dans un outil, les impératifs pour sélectionner un outil efficace tels que la bonne collecte des données, la marge d’erreur dans l’analyse du sentiment automatisé…
Vous êtes dans ces démarches et avez besoin de conseil ?
₍₁₎ Les outils de social media monitoring sont en mesure de scanner tous les espaces publics. Cela signifie qu’ils n’ont pas accès à toutes les données. Certains sites ont vite compris l’enjeu autour de cette donnée sociale, et ont restreint leurs accès. Ce sont notamment les réseaux sociaux. Twitter donne accès à une partie de ces données gratuitement. Avoir accès à l’exhaustivité des tweets, soit 500 millions de tweets par jour, est possible mais n’est pas gratuit. Facebook donne uniquement accès aux pages et groupes publics. Google+, LinkedIn, Viadeo, Pinterest, Instagram et les autres réseaux sociaux ont chacun des politiques différentes. C’est pourquoi vous ne retrouvez pas toujours ces différents réseaux sociaux dans les outils de monitoring, ou de moins l’exhaustivité des contenus recherchés.
₍₂₎ Le firehose est le nom communément donné au flux massif et en temps réel des tweets publiés chaque jour. Twitter donne différents accès à son firehose.