SURVEY LA PREMIÈRE REVUE DÉDIÉE AUX ÉTUDES & RECHERCHES EN MARKETING
MAGAZINE
>> NOUVELLES TECHNOLOGIES ET MÉTHODOLOGIES D’ENQUÊTES
Avril 2014 - Prix : 24 €
Expertise
L'analyse de verbatims sur gros fichiers Projet NOUVELLES TECHNIQUES D'ETUDE
Le digital au service de la connaissance client Collecte de données sur mobiles, communautés en ligne, GPS data, gamification des enquêtes, micro-surveys...
Créez et animez votre panel propriétaire Atelier
Améliorez vos rapports avec l'infographie
Décryptage
La qualité dans les enquêtes Technique : Mesurez la satisfaction de vos clients avec le Net Promoter Score Survey Magazine - Avril 2014
1
pour Windows XP, VISTA, SEVEN et Windows 8
s e u q sti i t a t S
Découvrez
Web-Reports Créez et publiez en quelques clics des applications dynamiques d'accès aux résultats de vos enquêtes, baromètres, tableaux de bord...
www.soft-concept.com
2
Survey Magazine - Avril 2014
SURVEYMAGAZINE 5
EDITO
6
AVRIL2014
E R I A M M SO
ACTUS des Etudes Echos du Marketing & MARCHÉ es sur le Les tendances mondial e marketing marché de la recherch
9 16
ÉVÈNEMENTS en France Les salons des études et en Europe
20
DÉCRYPTAGE es La qualité dans les étud
27
DOSSIER la Le digital au service de ts connaissance des clien
mobile des données L'essor de la collecte service des études La géolocalisation au lles s communautés virtue Le développement de de la gami cation Les nouveaux apports cros-surveys mi s L'arrivée en force de
60
PROJET riétaire Créez votre panel prop
64
TECHNIQUE er Score Maîtrisez le Net Promot
66
EXPERTISE des Traitement et analyse chiers : verbatims sur de gros delle ? le jeu en vaut-il la chan
68
VEILLE ces dans Innovations et tendan mystère le domaine des visites
70
ZOOM ainJuicer ? Mais à quoi carbure Br
72
RESSOURCES Sites & blogs à part ! Livres à la une retrouvez nt notre application et Téléchargez gratuiteme one re tablette ou smartph vot sur ine gaz -Ma Survey
53
PROSPECTIVE uscule L'internet des objets bo les études marketing
57
ATELIER avec l'infographie Améliorez vos rapports
é ISO 14001 pour . Ce un atelier de fabrication certifi dial) initié à Davos en 1999 Ce magazine est imprimé par By Nature, et adhérent du Global Compact (Pacte Mon ées FSC*. Cette nouvelle génération Paper et ert filières écologiques certifi de labellisé Imprim'V és ISO issus mat certifi ½ ction és couch produ rs de sites r de papie e ISO 9706), et est issue des t Stewardship Council : FSC est magazine est imprimé à parti résistante au vieillissement (norm ière de papiers éco-responsable est internationale de management environnemental). *FSC - Fores forest n gestio de tives les initia 9001 et ISO 14001 (norme à but non lucratif qui encourage de manière constructive les par un label apposé sur les une organisation internationaleéconomiquement responsables, en les rendant visibles et crédib socialement, écologiquement et produits issus de forêt certifiées.
GooglePlay
s ce numéro :
cités dan Sleep Number (53) Microsoft (51) Soft Concept (2, 23, 31, Hello Coton (36) noire” (35) Millward Brown (8) vache 52) HP (33) Acticall (6) MMA (Mobile Marketing CNIL (49) Sony (33, 54) (64) HSBC (35) n) Adequation Market ciatio Asso 51) Coca cola (50, Strategie Clients (16, 17, Research (8) (33) HTC Monoprix (41) (52) a 18) Cohd Adobe (59) IBM (51) Nasdaq (6) Surveyquest Research (13) CSA (8) Aéroport de Lyon Saint(8) Ifop (7) ric Neuromet Symetris (54) Danone (7) Exupéry (30) (59) Infogr.am Times (73) York New r (8) pellie LBI as Mont de Syntec (21, 35) Digit Aéroport Insee (42) Nielsen (6, 8) (31) Syres (67) Disney (50, 51) 40) (58, gram Insta Nike (47, 54) Aéroport ToulouseTarsus France (18) DMS (6) Institut G9+ (56) NXA (6) Blagnac (43) T-Cuento (8) Easelly (59) rs Maste ut Instit (21) Oasis (47) AFNOR Teleperfor mance (7) Easy Jet (43) (6) ts ultan Cons nal ire Internatio rvato Obse Airport Council (55, 61) Panel la de TF1 (51) Easy Institut national des pratiques culinaires et International (30) TNS (8) Ebay (64) Relation Client (7) (7) repas cil des Coun rt Airpo (7) se (11) Bocu ute Paul instit ut TNS Sofres (8) ED Instit (6) (30) e Occurrenc International TNS Worldpanel (8) Eden Insight (37, 39) Ipsos (7,43) Orphée (68,26) Airport Service Quality Toluna France (8) Efamro (21) Klepierre (8) (30) (49) leo Pasca (8) oble (54) Gren 51) ree TrendyBuzz (6) EM Kolib Apple (33, Piktochart (59) Tryom (56) Esomar (7, 35, 72) Ladurée (47) Arcane Research (55) rest (40, 41, 58) Pinte rch Resea (34) (21) tative (16, icaine stat es Twitter (52, 40) Quali Euro Amér e Etud LB des Armé Printemps (73) Université de York (36, 73) Facebook (40, 52, 64) 17, 18) Asus (33) LG (54) Virgin Media (64) Fidbuz (8,35) Pro2C (6) Audencia (8) (6) (62) LH2 ges (56) Visual (59) Fnac Quali sonda Babilou (7) LinkedIn (40) VMV (18) Fondation Louis Qualimarket (23 Baiersdorf (19) (7) (6) uelle 5) uence 6) Bond (64,6 Linkfl (45,4 ti pany Wikipedia (51) Com Quan & Quali Bain Force Plus (32, 65) Listen (15) Wired (52) Qualivox (8, 44) B-Ecommerce(17) (6) e Franc Future thinking Louis Vuitton (8) Wistiki (54) Repères (72) Bio'sat (24) GDF Suez (7) M2 Research (42) Wordle (59) Repetto (47) Bizrate Insights (40) (51) ld's 17, GFK (8) Mac Dona Worldwide Alliance (7) Research & Results (16, BNP Paribas (7) (59) (59) eyes 72, Gliffy 71, 75) Many 45, 19, (7, YB consulting (46, 66) Juicer Brain (8) 72) le 69, peop 43, rch 42, (7, resea (33) et GMI ung Mark Sams 73) Yelp (34) s Google (7, 8, 30, 40, 42, Marketing Point de Vente Sciences-Po (8) BVA (6, 8) Youtube(40) 48, 52) (8) Seb (7) Camp de Bases (73) (6) ctive Intera (17) s irect Harri M-D Skema (8) Casino (7) 56) 55, (54, Havas Media Médiamétrie (8) Cdiscount (7) Heapsylon (54) Centre commercial “la Survey Magazine - Avril 2014
Sociétés et organismes mag.eu .64.00 – contact@survey REDACTION : 04.78.54 zian ague Dan ard tion : Gér , Yannick Directeur de la publica Daniel Bô, Pierre Bruneau n astie éro : Sébastien Aurionnaux, Ont collaboré à ce num , Stéphane Daubignard, Valentine Girault-Matz, Séb, Stéphane Busson, Laurent Conroux Philippe Lemaire, Soline Pulicani, Guillaume Rac d, Gradeler, Hélène Guinan k. : Olivier Ronteix, Thomas Skoruca , conseils et/ou relecture ma Hardy, s interviews, témoignages Nous remercions pour leurmbine, Anne-Marie Dussaix, Warwick Francis, Gem o. Althuser, Ghislaine de Chagrin, Stéphanie Perrin, Hans Reitmeier, Pauline Roy Arnaud Mast, Michel Péle un éclairage Illustrations : Shutterstock éros, des informations ou ies r, dans les prochains num Si vous souhaitez apporte études et les nouvelles technologies et méthodolog particulier sur le métier descontacter la rédaction. à l à l'adresse d'enquêtes, n'hésitez pas 04.78.54.64.00 ou par mai renseignements et tarifs au Encarts publicitaires : pub@surveymag.eu exemplaires. onnemental, Numéro imprimé à 10.000 son système de management envir
Appstore
3
le , y e v
ér o 1 des lo m u gi n A
+
A
HEALTHCARE MARKETING RESEARCH -
cie ls
d’
ET -S u
DE L'INFORMATION SUR L'HOSPITALISATION - AGENCE WALLONNE DES
ê qu en
@ r
ABSYL FRANCE - ACTION MUNICIPALE - ADEPALE -
AD'HOC - ADVANCIA - AECOM - AFC - AFNOR - AGENCE TECHNIQUE
TÉLÉCOMMUNICATIONS - AGENCES RÉGIONALES DE L'HOSPITALISATION - AGICOM -
AIR FRANCE - AIR LIQUIDE - ANTEA - AON CONSEIL & COURTAGE - APEC - APRIA RSA -
TIME - CAISSES D'EPARGNES DE MIDI-PYRENEES - CARLSON WAGONLIT TRAVEL - CASTORAMA - CATHARSYS
CONSULTING GROUP - CCI DU HAVRE - CCMSA - CEMP - CEN BIOTECH - CFCE - CHU LIMOGES - CIN ST MANDRIER - CINQ
SUR CINQ - CLINITEX - COHESIUM ETUDES - COMMUNAUTE D'AGGLOMERATION DE ST QUENTIN EN YVELINES - COMPASS GROUP (UK, BELGIUM, NEDERLAND…) - CONSEIL D'ETAT - CPAM DE LA SOMME - CRAMIF - CRÉDIT LYONNAIS - DANONE VITAPOLE - DATAMATIQUE - DDSC - DECEMBER - DEDICATED RESEARCH - DEDUCTION - DELHAIZE GROUP - DEVISE - DHOS -
DIRECTION DE LA DEFENSE ET DE LA SÉCURITÉ CIVILE - DISTRIBUTION CASINO FRANCE - EB CONSULTING - ECOLE CENTRALE
PARIS - ECOLES DES MINES (ALES, DOUAI) - ECUREUIL MULTICANAL - ED INSTITUT - EDHEC - EDIPRESSE PUBLICATIONS SA -
en ligne
Ils utilisen
ICI OU AILLEURS - ATMOSPHERES - AVENTIS CROPSCIENCE - AXA CORPORATE SOLUTIONS - AXA FRANCE
SERVICES - AXE ET CIBLE - AXES ET CIBLES - BANQUE PALATINE - BELRON - BIO'SAT - BLET CONSEIL - BULGARI
te s
tN
APTARGROUP - AQUITAINE EUROPE COMMUNICATION - ARA RESEARCH INTERNATIONAL -
ARCELOR TECHNOLOGIES - AREMEDIA - ASSEMBLEE DES DEPARTEMENTS DE FRANCE - ASSOCIATION
EFICIENS - ELIOR - EMERSYS - ENSICA - ENST DE BRETAGNE - EUROCONTROL - EXAFIELD - FÉDÉRATION NATIONALE DE LA
MUTUALITÉ FRANÇAISE - FEVAD - FNAC - FOURNIER - FRANCE TELECOM - FROMAGERIES BEL - GB ETUDES & CONSEIL - GC2I BANQUE POPULAIRE - GIE AXA FRANCE - GIE ECUREUIL MULTICANAL - GL EVENTS - GMV CONSEIL - GOLDFARB CONSULTANTS GROLIER INTERACTIVE EUROPE - GROUPE LEBER - GROUPE MONITEUR - GROUPE VISUAL - ICM - IFP - INSA DE LYON - INSA DE RENNES - INSA DE ROUEN - INSEP CONSULTING - INSTITUT URBAIN DE L'ENVIRONNEMENT - INTEGRAL CONSEIL - INVIVO - IRA DE LILLE - ISEP - ISTA - IUT DE ST DENIS - JOEL BIENNE CONSEIL - KOMPASS FRANCE - K-TEST - LA POSTE - LVMH - M6 WEB MAJOR CONSULTANT - MARINE NATIONALE - MARKET AUDIT - MEDIADIXIT - MEDIAPANEL RTL 2 - MEDSYN - MGFORM MINISTERE DES SOLIDARITES, DE LA SANTE ET DE LA FAMILLE - MKT CONSEIL - MONDIAL ASSISTANCE - MUTUALITE SOCIALE AGRICOLE - NESTLE - NEWCASE - NEWMAN - NRJ - OBSERVATOIRE DE L'ECONOMIE ET DES TERRITOIRES OFFICE DE L'HABITAT SOCIAL D'ALFORTVILLE - ONET SERVICES - ORACLE - ORGASYS - ORPHEE - OXO CONSULTING PAGES JAUNES - PASCALEO - PLANETE MARKETING - PLEON CM&O - POLYCONTACTS - PROCESS'COM QUALIMARKET - QUALI TEST - RADIO FRANCE INTERNATIONALE - RADIO SPARES - RATP - RC&A - RHODIA SERVICES - RICOH INDUSTRIE FRANCE - ROYAL CANIN - RVI - SAGEM SECURITE - SAN DE ST QUENTIN SIEMENS - SILOGIC - SNCF - SPADE CONSULTING - SYNDICAT NATIONAL DES ENSEIGNEMENTS DE SECOND DEGRÉ - SODEXO - STIB - SWETS BLACKWELL SA - TELEPERFORMANCES (NORD, RHONE-ALPES, SUD-OUEST) - TELOR - TF1 - THE ACHIEVEMENT CENTER
les Modu sifs exclu
Lo
cal survey
INTERNATIONAL - TOCQUE - TOPONLINE - TOTAL FRANCE CAMPUS - TOWERS PERRIN - UBIFRANCE - UNIVERSITÉS (ANGERS, BRETAGNE, VALENCIENNES…) - VIGIE PHARMA - VITALIS CONSULTING YACAST FRANCE ...
Ey
e tracker
e Sh
lf simulato r
Ad rating
Merci de cliquer sur les 3 zones qui attirent le plus votre attention :
Premier système de saisie délocalisée d’enquêtes en ligne en mode déconnecté
Module d’évaluation de supports visuels (pubs, ...)
Module de simulation de choix de produits en rayon
Module d’évaluation de séquences vidéo ou audio
La nouvelle génération de logiciels d’enquêtes et de reporting 4
Démos et renseignements au 04.78.54.64.00 ou sur www.soft-concept.com Survey Magazine - Avril 2014
Edito
Gérard DANAGUEZIAN gdanaguezian@ethnosoft.com
Réveillons-nous ! Cela fait près de 15 ans que nous écrivons et décrivons dans Survey-Magazine les tendances à venir et les concepts qui vont se développer sur le marché des études marketing. Et cela fait près de 15 ans que ce que nous annonçons se réalise dans la foulée (vérifiez en feuilletant nos anciens numéros en ligne sur www.surveymag.eu). Notre démarche est simple. Nous nous contentons d'être attentifs aux concepts qui se développent sur les marchés internationaux, en les observant avec notre esprit critique national mais également avec une certaine bienveillance et une grande curiosité. Nous essayons, à chaque fois de comprendre les nouvelles tendances et d'évaluer leurs apports concrets par rapport aux méthodes 82% DES INSTITUTS existantes ainsi que leur DANS LE MONDE efficacité réelle pour S'INTÉRESSENT AUX résoudre les problématiENQUÊTES MOBILES ET ques d'études. L'idée est d'ignorer les modes AUX COMMUNAUTÉS éphémères et les concepts EN LIGNE ! oiseux, pour ne retenir que les pratiques réellement innovantes et prometteuses, qui apportent une véritable valeur ajoutée au monde des études. Une fois le bon grain séparé de l'ivraie, nous cherchons à clarifier, expliquer, détailler, approfondir...
des approches qui ont fait leurs preuves et que, finalement, vous avez bien raison de ne pas vous intéresser aux enquêtes mobiles, aux communautés en ligne, à la gamification et à tous les concepts dont nous vous annonçons l'imminence dans ce numéro, dites-vous seulement que vous êtes atteints du syndrome de la fameuse exception française, cette singularité qui commence à virer à l'anomalie. En effet, 18% dans le monde, c'est plutôt minoritaire, et le fait de se targuer d'en être nous semble plutôt suicidaire. Alors si vous le voulez bien, lisez attentivement nos comptes-rendus sur les marchés anglais, australien et international des études, qui en disent beaucoup sur ce qui est en train de se passer dans le monde et sur les tendances en cours sur notre marché. Examinez notre dossier dans lequel nous décortiquons toutes les grandes méthodes et techniques qui se développent actuellement pour améliorer la connaissance clients. Compulsez nos articles sur la qualité, les panels propriétaires, le Net Promoter Score, l'analyse de verbatims ou les clients mystère. Jetez également un regard attentif sur l'approche innovante d'un institut original et qui ne cesse de monter, BrainJuicer. Vous découvrirez certainement dans cette mine d'idées et d'analyses que nous avons préparée pour vous de quoi orienter vos priorités et vos actions. Bonne lecture !
Aujourd'hui, nous vous annonçons que plus de 82% des instituts d'études dans le monde s'intéressent aux enquêtes mobiles. La moitié les a déjà mises en place et l'autre moitié est en train de le faire. Plusieurs études internationales confirment cette tendance. Le taux est du même niveau pour les communautés en ligne. Autant dire que ces deux méthodes au moins sont aujourd'hui incontournables et qu'il faut que vous vous y intéressiez d'urgence si ce n'est déjà fait. Maintenant, si vous pensez que vous êtes spéciaux, que vous faîtes plus de qualitatif, plus de qualité, que vos méthodes sont les meilleures, que vous en savez plus que les autres, qu'il vaut mieux tabler sur Survey Magazine - Avril 2014
5
ACTUALITÉS
ECHOSDUMARKETING &DESETUDES Fusions & acquisitions BVA rachète DMS et reprend une partie de LH2 Le groupe BVA continue à faire ses courses sur le marché des études. Ainsi, après avoir acquis il y a quelques mois, l'institut Masters Consultants, spécialisé dans le mystery shopping, le groupe vient de mettre la main sur les instituts DMS et LH2. DMS est justement le leader français du mystery shopping avec une présence dans le domaine du luxe et à l'international. LH2, anciennement Louis Harris, avait déposé le bilan en septembre 2013. BVA a racheté le siège, la marque et l’activité d’études d’opinion qui compte une trentaine de collaborateurs. En revanche, les deux centres d'appels de LH2 ont été repris par une société de télémarketing, Pro2C, avec une trentaine de personnes également. LH2 comptait près de 120 salariés avant sa liquidation. La stratégie de BVA est de grandir à marche forcée pour résister sur le marché concurrentiel des études.
Nielsen absorbe Har
ris Interactive
ment les concernent aussi en ce mo Les grandes manœuvres mondiales. Le groupe Nielsen, grandes sociétés d'études ses de mesures des achats de numéro 1 mondial des ba mation, a annoncé avoir bouclé produits de grande consomde l'ensemble des actions en son offre publique d'achat rris Interactive. Le montant de circulation de la société Ha 8,9 millions de dollars. Harris l'acquisition s'est élevé à 11 les études et plus particulièrens Interactive, spécialisée da , était côtée auparavant au ne lig en s ête qu llions ment, les en ires s'était établi à 140,3 mi Nasdaq. Son chiffre d'affa c des pertes depuis plusieurs ave é qu'il de dollars en 2013 (mais cano-néerlandais a indiqu ement éri am e années). Le group ch rris Poll et que ce rappro conservera la marque Ha capacités des deux spécialistes permettra de combiner lescer dans le social et le digital. des études pour se renfor
Future Thinking reprend sa liale française SPA Future Thinking, premier institut indépendant au Royaume-Uni, a repris les parts du Groupe Acticall pour obtenir la pleine propriété de l'institut d'étude Future Thinking France, qui se positionne en spécialiste de l'anticipation des comportements des consommateurs/clients. Pour Jon Priest, directeur général de SPA Future Thinking c'est le succès de la filiale française et ses très bons résultats des 18 derniers mois qui poussent la maison mère à s'investir ainsi. Pour lui, le fait d'avoir une forte présence à Paris est stratégique dans la gestion de la relation avec les clients internationaux et offre un point d'entrée sur l'Europe continentale. Future Thinking France a augmenté ses revenus de 62% au cours de l'année 2013. Le Directeur actuel, Stéphane Marder reste en place, et dit apprécier l'opération.
Occurrence rachète le cabinet NXA Le cabinet d'études parisien Occurence, spécialisé dans la mesure de la performance des actions de communication vient d'annoncer le rachat du cabinet d'études NXA. Le groupe accueille ainsi une deuxième filiale, après Occurrence Healthcare, spécialisée dans le domaine de la santé. NXA conserve ses bureaux à La Rochelle et c'est Cécile Grosset qui en prend la direction opérationnelle.
Linkuence rachète TrendyBuzz Le marché de l'écoute des media sociaux semble prendre son envol et inciter ses acteurs à accélérer leurs investissements. La société Linkfluence, fondée en 2006 et qui n'affichait en 2012 que 2 M€ de CA et un résultat net de -1,3 M€ vient d'annoncer une levée de fonds de 3 M€ qui s'ajoutent aux 3,5 M€ levés ces 7 derniers mois. La société, qui est connue sur le marché du social media intelligence notamment pour sa solution logicielle Radarly, a profité de cette levée de fonds pour acquérir TrendyBuzz, société spécialisée dans la e-réputation et la veille pluri-médias. Le nouvel ensemble réunira au total 70 collaborateurs spécialisés notamment dans le big-data, le data-mining et les études marketing et communication. Il réalisera un chiffre d’affaires global de 7 M€ en France et en Allemagne avec plus de 200 clients actifs. 6
Survey Magazine - Avril 2014
ACTUALITÉS
Initiatives Lancement ofciel de l'Institut National de la Relation Client La conférence inaugurale de l'Institut National de la Relation Client s'est tenue en février au Conseil Économique, Social et Environnemental à Paris, en présence de nombreux acteurs de la relation client. L'Institut National de la Relation Client (INRC) est un organisme paritaire et inter-sectoriel, impulsé par GDF Suez, BNP Paribas, Teleperformance, Cdiscount/Casino et Babilou. Il a pour ambition de faire de l'activité de relation client, un atout de compétitivité pour les entreprises françaises et de contribuer au développement d'un pôle français de l'excellence de la relation client. L'INRC cherche à réunir toutes les parties prenantes de la filière autour de cet intérêt général commun. Si les services clients en France sont jugés plutôt bons, ils sont néanmoins loin d'être excellents. Pour se fixer des objectifs précis, l'INCR a évalué le niveau de satisfaction à l'égard des services clients français par rapport à huit pays : Allemagne, Espagne, Grande-Bretagne, Italie, Brésil, Chine, Etats-Unis et Japon. Cette étude internationale, confiée à Ipsos, classe la France en 3e position en matière de satisfaction globale. A contrario, La France occupe la dernière position sur le plan de l'excellence des services clients, tous secteurs confondus.
Soft Concept observe les pratiques culinaires avec l'institut Paul Bocuse Soft Concept annonce son partenariat avec l'institut Paul Bocuse, la fondation Louis Bonduelle, le groupe Seb et Danone Research pour mener à bien l'édition 2014 de l'Observatoire International des pratiques culinaires et des repas. Créé en 2012, ce projet collaboratif est mené avec la participation des entreprises, des institutions internationales et des étudiants membres de la Worldwide Alliance, un réseau qui réunit 14 écoles et universités internationales prestigieuses dans le monde de l'hospitality management et des arts culinaires. Soft Concept mettra en place un système de collecte de données mobiles basé sur son logiciel Mobi-Survey, qui permettra à des étudiants de l'Institut Paul Bocuse, issus de 37 nationalités, aux diplômés aujourd'hui répartis dans 22 pays du monde et à des consommateurs de différents pays de réaliser dans leur pays un photo-reportage décrivant l'ensemble de leurs prises alimentaires. Les données collectées seront consolidées en temps réel sur une plateforme numérique et serviront aux recherches scientifiques.
Ne ratez pas la conférence Esomar sur le digital Esomar colle aux tendances du monde des études et propose une conférence sur le digital du 15 au 17 juin à Stockholm. Les trois principales thématiques abordées seront le big data, la recherche mobile, la recherche en ligne et les réseaux sociaux. Les « Digital Labs » vont permettre aux participants de tester les dernières avancées technologiques en la matière. Des experts de GMI, BrainJuicer, Google, Ipsos et bien d'autres, viendront faire le point sur ces sujets.
Nouveaux produits Ipsos Wealth cible les hauts revenus
Neurometric sonde les cerveaux
Florence de Bigault, Directrice du Développement d'Ipsos, a annoncé le lancement d'une nouvelle offre concentrée sur les 5 à 8% des ménages les plus aisés. Cette cible dispose, du fait de ses hauts revenus et hauts patrimoines, d'une capacité d'investissement importante. Elle intéresse de plus en plus les marques du luxe mais également de la grande consommation. Elle représente un véritable relais de croissance qu'Ipsos souhaite analyser en déployant une expertise spécifique. L'originalité du nouveau protocole réside dans la transversalité de l'approche : Ipsos va fédérer les spécialistes des différentes expertises métier qui travaillent déjà sur cette cible afin de créer une communauté d'analystes des consommateurs aisés, avec une base de données sans cesse renouvelée. Pour assurer la qualité des terrains, Ipsos garantit la mise en place de « process très spécifiques de prise de contact » et des protocoles très qualitatifs, adaptés à cette cible exigeante.
Décidément, le Neuromarketing a le vent en poupe. Un nouvel acteur, « Neurometric », vient de se lancer sur le marché Québecois, à l'initiative de Guillaume Fortin, un passionné des neurosciences, expert du système dopaminergique, et auteur de nombreux articles sur le sujet dans des revues scientifiques (The Journal of Neuroscience et Nature Reviews Neuroscience). Le neuromarketing ouvre une nouvelle ère dans la compréhension du consommateur et suscite un intérêt grandissant chez les marketeurs. A la croisée des chemins entre le marketing et les neurosciences cognitives, sa promesse est d'approcher de manière plus scientifique le cerveau du consommateur afin de mieux l'appréhender. Neurometric offre un service de recherche marketing qui est en mesure de déceler l'attention et l'engagement émotionnel de l'individu par rapport à un produit, un service ou une campagne publicitaire. L'entreprise peut intervenir à toutes les phases du design : de la conception au prototype ou au produit déjà commercialisé. Survey Magazine - Avril 2014
7
ACTUALITÉS
Nominations
+700 % de Facial coding pour Millward Brown
Sandra Sounack rejoint Adequation Market Research en tant que Directrice associée. Précédemment Client & Market Insight Manager chez Louis Vuitton, elle bénéficie aussi d’une expérience dans les instituts d’études, chez Ifop et CSA.
Millward Brown, acteur international majeur dans le domaine des études de marché, se positionne comme le fournisseur de solutions leader sur le secteur du neuromarketing. Avec 3 000 études réalisées en 2013 en utilisant le « facial coding », la société enregistre une hausse annuelle de 700 % ! Les émotions visibles sur le visage des sondés sont à la base de ce système d'enquête innovant qui permet notamment à de grandes marques de voir rapidement les effets de leurs publicités sur les émotions des répondants. Une innovation dans le domaine du copy testing qui est désormais incluse dans la version standard de l'outil Link TM de Millward Brown qui permet de tester, prévoir et optimiser les performances publicitaires.
Jérôme Folter revient chez BVA. C’est en effet un retour aux sources pour lui qui a débuté en tant que chargé d’études. Il a ensuite rejoint IPSOS puis IFOP. Il aura en charge le pôle Customer Experience du groupe, dédié au suivi et à la mesure de l’expérience client.
Qualivox visite les e-shops Bruno Colin remplace Jacques Paget à la tête de Socio Logiciels. Précédemment Directeur des opérations et des technologies chez GFK, Bruno Colin a réalisé l'essentiel de sa carrière dans le domaine des études chez AC Nielsen, Médiamétrie, TNS Worldpanel et TNS SOFRES.
Qualivox présente un nouvel outil de mystery shopping dédié au ecommerce et baptisé « Myster e-shopping ». L'offre packagée, basée sur 4 vagues de commandes mystère par an, permettra de travailler sur l'eXperience shopping online d'un site marchand, depuis la navigation sur le site jusqu'à la réception de la commande et son retour. L'intérêt majeur de cet outil est la mise en perspective de la qualité rendue par l'e-shop par rapport aux résultats benchmarkés de l'ensemble des sites participants.
Découvrez l'Inspiration Corridor Klepierre et DigitasLBI Labs on développé un prototype, le couloir digital ou inspiration Corridor, qui examine les clients à l'aide d'une caméra infra-rouge et qui va définir leur sexe, leur âge ainsi que la couleur de leurs vêtements. En avançant dans ce couloir, les clients se voient proposer des produits adaptés à ces critères. Ils peuvent ainsi se créer une liste de courses sur leur mobile à l'aide d'une application reliée au système. Cet outil est prévu pour être installé au sein de centres commerciaux afin de proposer des produits disponibles dans les boutiques du centre. Le prototype va être testé dans différents centres Klepierre.
T-Cuento calcule l'attractivité des magasins T-Cuento a mis au point des outils de Retail Intelligence pour mesurer l’attractivité des points de vente. Le taux d’attractivité, autrement appelé taux de pénétration, représente le pourcentage de clients potentiels qui ont été attirés au sein du magasin grâce aux supports marketing présents sur le point de vente. Ce pourcentage informera ainsi la boutique sur le ROI de son point de vente, de ses vitrines ou encore de ses campagnes publicitaires. Les outils de Retail Intelligence proposent d’aller plus loin encore en calculant le taux de transformations, le temps passé en magasin... T-Cuento présentera lors du salon MPV (Marketing Point de Ventes) les nouvelles fonctionnalités de ses produits à savoir qu’actuellement ces derniers arrivent à prévoir le volume des ventes de la semaine suivante. Basé à Barcelone, T-Cuento est leader sur son secteur.
Fidzup piste les clients en point de vente La startup Fidzup propose une nouvelle solution pour lier le digital au monde réel. Comme sur un site e-commerce, Fidzup piste les consommateurs lors de leurs parcours en magasins physiques et récolte toutes les informations nécessaires à cibler leurs besoins. De plus, son outil permet d'identifier les smartphones des clients pour pouvoir les recontacter par la suite. Ainsi, une fois sorti, le point de vente pourra diffuser une publicité ciblée sur l'intéressé pour motiver son achat et le faire revenir en magasin.
Soft Concept, éditeur leader en matière de logiciels d'enquêtes et de reporting, renforce ses équipes avec l'arrivée de Philippe Lemaire (Audencia), Soline Pulicani (Skema), Guillaume Rac (EM Grenoble) et Valentine Girault-Matz (Sciences-Po). Philippe interviendra en tant que consultant en enquêtes digitales. Soline dirigera le pôle web-marketing. Guillaume mettra ses compétences acquises chez Google dans le business developement. Valentine sera en charge de la communication.
Market Research People : recrutement spécialisé études William Yattah, ancien directeur commercial chez Toluna France, vient de lancer l'agence Market Research People. Spécialisée dans le recrutement de professionnels du monde des études, l'agence propose des services de recherche de candidats aux instituts, agences et entreprises qui n'ont pas forcément de service RH ou qui souhaitent simplement optimiser leur recrutement. Statisticiens, chargés d'études, chefs de projets, commerciaux : le site Internet de Market Research People a été pensé comme un véritable lieu de rencontres, qu'il s'agisse d'embauches ou de contrats de mission, entre les talents et les recruteurs. http://www.marketresearchpeople.com/
Survey-Magazine 2 numéros par an (avril & octobre)
EZ N ON ABVOUS
www.surveymag.eu 8
Survey Magazine - Avril 2014
48
OK
MARCHÉ
Philippe Lemaire plemaire@ethnosoft.com
Les tendances mondiales sur le marché de la recherche marketing Le monde des études bouge. Il tremble même sur ses bases. Alors que les techniques traditionnelles comme les enquêtes par questionnaires et les focus-groups continuent à être très largement utilisées, l'évolution de l'environnement technologique et commercial du consommateur suscite l'apparition de nouvelles techniques, plus aptes à saisir les nouveaux comportements et modes de consommation. Le dossier que vous découvrirez plus loin, expose dans le détail toutes ces nouvelles techniques. Mais avant de l'aborder, nous avons pensé qu'il serait utile de dresser un panorama du marché mondial des études et de l'évolution des approches et comportements des acteurs de la recherche marketing. Pour ce faire, nous nous sommes appuyés sur 3 études internationales de qualité, qui se sont penchées sur les tendances sur le marché des études. L'une a interrogé plus de 2 200 acteurs mondiaux alors que les deux autres se sont penchées sur deux marchés nationaux aux antipodes géographiques mais finalement très proches entre eux et avec la situation qui prévaut sur tous les marchés matures. Comme vous le verrez, les pages qui suivent sont pleines d'enseignements. Elles résument les mouvements de fond du marché des études mais donnent également des pistes de réflexion et d'action pour bien saisir les tendances émergentes et les transformer en succès futurs.
Survey Magazine - Avril 2014
9
MARCHÉ Etude GRIT Winter 2014
Panorama d'un marché mondial en pleine mutation La 14ème édition du rapport GRIT (GreenBook Research Industry Trends) vient de paraître. Cette étude qui fait le point depuis 2003 sur l'évolution des tendances sur le marché mondial des études marketing, a concerné cette année 1786 prestataires d'études et 443 clients, soit au total 2229 entreprises interrogées dans le monde (dont 38% en Europe). Les principaux enseignements sont détaillés ci-dessous. La qualité de la relation est essentielle… mais pas sufsante Clients et instituts s'accordent à considérer que les aspects relationnels sont primordiaux. L'écoute et la compréhension des besoins du client ainsi que la mise en place de relations de qualité continuent avec constance à se placer en tête des facteurs clés de succès à la fois pour les instituts (92% pour les 2 facteurs) et pour les clients (93% et 85%). La qualité des équipes et la connaissance des besoins des clients suivent de près. Parmi les facteurs qui évoluent le plus, la « Qualité élevée de l'analyse » gagne en importance cette année, probablement à cause de l'essor du big data comme élément central de la connaissance client. A l'inverse, le fait d'avoir déjà travaillé avec l'institut perd de l'importance par rapport aux années précédentes ce qui laisse penser que les clients recherchent des nouvelles approches et de nouveaux outils pour répondre à leurs besoins, et qu'ils sont disposés à changer de prestataire pour accéder à ces nouvelles approches. Ce critère marque d'ailleurs un décalage important entre la vision des instituts et celle des clients. Les premiers le valorisent encore à 84% (85% l'année dernière) alors que 67% seulement des clients lui accordent de l'importance (79% l'année dernière). Cet écart devrait alerter les instituts et les inciter à se renouveler plus rapidement en s'intéressant notamment au Big Data, aux enquêtes mobiles et autres communautés en ligne, plébiscités par les donneurs d'ordre. Un autre décalage notable réside dans l'appréciation du facteur prix que les instituts semblent valoriser bien plus que les clients. En effet, 48% des premiers l'estiment important contre 34% seulement chez les acheteurs 10
Survey Magazine - Avril 2014
d'études. Cela devrait inciter les instituts à développer des offres innovantes et à haute valeur ajoutée plutôt que de se battre sur les prix. On peut enfin constater avec surprise que les clients et les fournisseurs sont d'accord pour accorder moins d'importance à la vitesse de réponse aux demandes. Cela est sans doute dû à la réduction importante des délais, qui semblent désormais difficilement compressibles.
Les sources d'information se digitalisent De manière surprenante, les salons professionnels, séminaires et conférences connaissent un certain regain d'intérêt par rapport à l'année précédente. 66% des clients et 61% des instituts d'études y trouvent une source d'information intéressante Mais les supports digitaux dans leur diversité attirent de plus en plus de professionnels. Les webinars et les événements virtuels intéressent 59% d'entre eux alors que les sites web des entreprises du secteur en attirent 55%. Les publications et sites web techniques (comme Survey-Mag que vous pouvez consulter en ligne sur www.surveymag.eu) nourrissent 53% des professionnels en connaissances et informations. Il en est de même des plateformes communautaires professionnelles comme LinkedIn qui attirent principalement les instituts. En revanche les blogs, newsletters ainsi que les réseaux sociaux comme Facebook, Google + et Twitter ne sont pas vraiment considérés comme des sources d'information valables pour les professionnels du secteur. Les critères de choix d'un évènement réel ou virtuel sont la focalisation sur des thèmes métier pour 63% des sondés, la qualité des intervenants pour 50% d'entre eux et l'approche des problématiques de pointe.
Le changement passe par de nouvelles méthodologies et technologies Les nouvelles méthodologies et technologies sont considérées comme les principaux facteurs d'évolution et de changement dans la profession. Cependant, alors que les instituts et leurs clients s'accordent à 56% sur l'importance des nouvelles méthodologies, un écart important les sépare en ce qui concerne les nouvelles technologies. En effet, 52% des instituts estiment ce point essentiel mais seuls 41% des clients y accordent la même importance. Inversement, 38% des clients cherchent à faire plus avec les mêmes ressources, cette préoccupation n'est mentionnée que par 33% des instituts. En corollaire, lorsqu'on leur demande de citer le critère qui influe le plus sur les changements dans les processus de collecte de données, la contrainte budgétaire se place en tête des soucis des clients (surtout en Europe) alors que les instituts citent tout d'abord l'utilisation accrue des
Vous pouvez consulter le rapport à l'adresse http://www.greenbook.org/GRIT
MARCHÉ Communautés en ligne
49%
Enquêtes mobiles
33%
41%
Social media analytics
41%
36%
Text Analytics
27%
Eye-tracking
26%
Qualitatif sur mobile
22%
Ethnographie mobile
21%
Micro-enquêtes
17%
Etudes gamifiées
16%
Crowdsourcing
14%
Environnements virtuels
14%
Analyses faciales
13%
Neuromarketing
11%
Réponses biométriques
8%
68%
38%
69%
30%
57%
25%
51%
39%
61%
38%
19%
Marchés de prédiction
76%
35%
31%
Interview par Webcam
59%
32% 27%
51% 44%
38%
54%
33%
47%
28%
42%
23%
36%
25% 19%
communications mobiles avec laquelle ils doivent composer (principalement sur les marchés émergents).
Les clients internalisent leurs plateformes d'études Les instituts et les clients s'accordent sur le fait que ces derniers s'intéressent de plus en plus à la réalisation en interne de leurs études. Mais alors que les instituts pensent que les clients dépensent davantage dans ce domaine, ces derniers considèrent plutôt qu'ils font plus avec les mêmes ressources. Si l'on considère l'investissement
82%
40%
33%
Big Data Analytics
82%
36%
Les techniques d'études qui se développent dans le monde. Utilisent la technique Evaluent la technique
27%
dans de nouvelles technologies, 24% des clients ont des projets à ce titre contre 30% des instituts qui pensent investir dans de nouvelles voies. Les principaux freins qui empêchent de se lancer dans des technologies nouvelles sont essentiellement liés à la perception de limitations techniques (enquêtes mobiles, text analytics), au manque de connaissances (crowdsourcing, gamification, social media monitoring, text analytics), aux doutes quant à l'efficacité de la technique (social media monitoring, g amification), aux contraintes budgétaires (communautés en ligne). L'étude met en évidence également un écart important entre les objectifs
des clients et ceux des fournisseurs d'études. La capacité à générer des remontées plus efficaces au travers de méthodologies hybrides intégrant de multiples canaux semble de plus en plus importante pour les organisations, tout comme le feedback en temps réel. Les clients sont ouverts à des méthodologies nouvelles qui renforceraient leurs opérations courantes et la plupart sont convaincus que les technologies mobiles sont en voie de dominer les interactions ave c l e u r s c o n s o m m a t e u r s. Cependant, les solutions actuelles d'étude sont limitées dans leur capacité à prendre en charge ces nouvelles plateformes. L'intérêt principal du client est de disposer d'un processus plus efficace, capable d'augmenter les remontées tout en réduisant ses frais d'études. Il attend de ses fournisseurs une réponse à cet objectif plutôt qu'une simple introduction de nouvelles technologies autour de la collecte de données.
Les communautés en ligne et les enquêtes mobiles se généralisent Comme le montre le graphique cicontre, 49% des sondés utilisent déjà les communautés en ligne et 33% envisagent de le faire, ce qui fait un total de 82% des 2229 sociétés d'études et clients interrogés. Les enquêtes mobiles atteignent également ce même taux de 82% mais avec 41% d'utilisateurs et 41% d'intervenants en train d'évaluer la technique. On peut donc considérer que ces deux techniques sont vraiment entrées dans une phase de
En 2014, misez sur les études qualitatives online !
ed
Livre Blanc : « Les conseils pour réussir vos Bulletin Boards » A télécharger maintenant sur www.bulletinboard.fr
204, avenue de Colmar - 67100 Strasbourg - Tél. : 03.90.40.13.13 - www.edinstitut.com 28 années d'expertise des études marketing - Certification ISO 20254 - Membre du Syntec EMO Survey Magazine - Avril 2014
11
MARCHÉ maturité. Il est vrai cependant que l'usage est surtout développé dans les instituts (50% utilisent les communautés en ligne et 45% les enquêtes mobiles) alors que les clients sont encore en situation d'attente (taux d'utilisation respectivement de 44% et 28%). Les autres techniques qui montent sont reprises dans le graphique de la page précédente.
L'optimisme anglais
Les technologies les plus prometteuses ne sont pas toutes nouvelles
Les résultats de la dernière vague de fin 2013 qui viennent d'être publiés marquent un optimisme élevé pour le marché des études en 2014, au plus haut depuis décembre 2010. Ils signalent une augmentation massive de l'utilisation des techniques d'études « émergentes ». Ils pointent enfin l'opinion générale des professionnels sur le fait que le marché des études est « à la croisée des chemins » avec un nombre important de changements fondamentaux en cours ou à venir. Une majorité d'instituts est toutefois optimiste et confiante dans la direction prise par l'industrie des études.
L'enquête a demandé aux participants la technologie dans laquelle ils pourraient se spécialiser dans l'avenir pour essayer d'évaluer celles que les répondants considèrent comme les plus prometteuses. Les clients et les instituts ont placé les enquêtes en ligne en première position, suivies des enquêtes mobiles, des communautés en ligne, des focus groups, du mobile ethnography puis de la gamification. Les techniques comme les enquêtes par email ainsi que, plus étonnamment, toutes les techniques liées à des mesures physiologiques (biometric response, eye tracking, facial expression tracking…) n'ont pas rencontré beaucoup d'adeptes.
BrainJuicer, toujours n°1 de l'innovation Pour la 3ème année consécutive, BrainJuicer a été désigné par les répondants comme l'institut le plus innovant, avec une bonne longueur d'avance sur Kantar, placé en 2ème position et Ipsos, troisième du classement. Il faut noter cette année l'entrée remarquée de Google Consumer Surveys directement dans le top 10. Vous pouvez en savoir plus sur les micro-surveys de Google dans l'article publié plus loin dans le dossier. Vous trouverez également à la fin de ce numéro de Survey-Magazine un article pour mieux connaître BrainJuicer.
L'évolution du marché à 5 ans Pour 97% des répondants, il va y avoir du changement ces 5 prochaines années dans les produits et services offerts sur le marché des études. 6% s'attendent à des bouleversements tandis que 31% imaginent de très nombreuses évolutions. Dans le cadre de ces prédictions, 80% des représentants d'instituts d'études se disent optimistes sur les changements à venir. Ils estiment que la demande pour leurs services va se maintenir ou se développer. Côté clients, 83% se disent optimistes et 85% pensent dépenser autant ou plus. 12
Etude RSM
Survey Magazine - Avril 2014
De moindre ampleur que l'étude GRIT, puisqu'elle porte principalement sur le marché britannique et concerne dans sa dernière vague 248 instituts basés au Royaume Uni (+106 instituts en Allemagne, Etat-Unis et Inde), l'étude RSM contient, elle aussi, des enseignements très intéressants, qui corroborent les conclusions du rapport GRIT. Menée semestriellement depuis 2002 par l'institut anglais éponyme, cette étude met bien en évidence les évolutions générales et les tendances du métier.
Des prévisions de croissance en hausse
Les instituts interrogés prévoient en moyenne une croissance de leur activité de 8,5% pour 2014. On a constaté dans les vagues précédentes que l'estimation donnée pour la période à venir dépassait généralement le niveau de croissance de l'institut sur les 12 derniers mois de 2 à 3 points. Cette fois, l'écart est plus important que d'habitude, puisque la croissance des 12 derniers mois s'établit à 2,7% et que l'écart est donc de près de 6 points ! Cela révèle un niveau d'optimisme notable des intervenants. Le renouvellement accéléré des méthodes
Plus de 8 instituts sur 10 (84%) ont mis en œuvre récemment l'une des 18 nouvelles techniques ou méthodes d'enquêtes émergentes recensées dans l'étude. Cela marque une accélération dans le renouvellement des approches et une conscience accrue de l'importance de s'adapter aux évolutions technologiques du marché. Parmi les méthodes les plus utilisées, les communautés en ligne arrivent en tête (52% d'utilisateurs), suivies des enquêtes mobiles (40%) et de l'analyse des médias sociaux (30%). Dans les enquêtes mobiles, celles réalisées sur des tablettes augmentent le plus (+12%) alors que celles réalisées sur les téléphones mobiles connaissent une croissance de +8%. Tous ces résultats sont proches des valeurs obtenues par l'étude GRIT sur le plan mondial. Un horizon chargé mais pas inquiétant
70% des instituts interrogés sont convaincus que le marché des études est à un tournant et qu'il va connaître un bon nombre de changements fondamentaux dans sa nature et son rôle. Mais cela n'empêche pas chaque institut d'être optimiste pour son activité : 15% estiment qu'ils ont une bonne vision des évolutions du marché à 5 ans ; 65% pensent savoir un peu ce qu'il en sera et seuls 21% ont donc peu ou pas du tout d'idée sur la question. Plus de la moitié se dit confiante de ces évolutions contre 21% d'anxieux. 59% sont optimistes mais seulement 41% se passionnent pour les changements en cours. Une orientation...
Même s'il y a de plus en plus d'instituts qui estiment que les études doivent s'attacher à générer davantage de remontées « créatives » de la part des répondants, la quasi totalité estime qu'il y aura encore besoin des enquêtes classiques réalisées sur des cibles spécifiques. Pour l'instant, une majorité (56%) rejette l'idée que les données en provenance des nouvelles sources comme les réseaux sociaux aient plus de valeur que les données issues de la recherche traditionnelle. Les enquêtes BtoB continueront, pour 61% de l'échantillon, à nécessiter plus de recherche « classique » que le BtoC. Enfin, 80% pensent que les instituts doivent apporter une vision stratégique qui guide l'avenir des clients plutôt que d'analyser des opinions et des faits passés. Vaste programme !
Etude BlueFin Ressources
Cet article reprend les analyses de la consultante Gemma Hardy gemma@bluefinresources.com.au
MARCHÉ
L'exemple australien Il ne viendrait habituellement pas à l'idée d'un praticien européen des études de s'intéresser au marché de la lointaine Australie. Pourtant, l'analyse menée par Gemma Hardy, consultante australienne spécialisée dans les études de marché et le recrutement révèle de fortes similitudes avec la situation européenne et recèle de nombreuses idées et enseignements applicables sur nos marchés. La croissance provient de deux sources opposées
L'étude met en évidence que le marché progresse à ses deux extrémités, via d'une part des prestations de conseil et approches spécifiques de haut niveau et, d'autre part, des approches basiques « low-cost ». En effet, les progrès des technologies d'étude ont un impact important et remettent en question les modèles traditionnels de prestations de recherche. Pour Olivier Freedman, d'AMR Interactive « L'un des plus grands défis vient du fait que la technologie a permis à tout un chacun de concevoir, d'héberger et de capturer des données à travers des questionnaires (par exemple via Survey-Monkey), ce qui signifie que nous devons nous concentrer sur les idées que nous fournissons plutôt que sur la plateforme, même si ce travail n'est pas suffisamment valorisé ». Si la technologie démocratise le processus de recherche, que reste-t-il aux instituts ? Il semblerait que l'alternative soit la suivante : se battre sur les prix, avec une approche « sans fioritures » - probablement basée sur la mise en place des meilleures technologies - ou se consacrer à un consulting de haut niveau, pour lequel un prix plus élevé peut être demandé. Kris White, de l'institut The Leading Edge le confirme en évoquant « le développement du conseil haut de gamme et l'augmentation des petites prestations bon marché au détriment du milieu de gamme ». La majorité des instituts australiens revendique un positionnement sur la stratégie et le conseil. Mais combien d'entre eux arrivent vraiment à satisfaire cette promesse en apportant de vraies solutions aux problèmes de leurs clients ? Pour que l'approche soit réussie, il faut non seulement de la collecte de données mais aussi la fourniture de recommandations et la mise en place de véritables stratégies marketing. Les instituts qui tirent leur épingle du jeu sur le marché australien sont ceux qui ne s'arrêtent pas à l'étude elle-même mais vont plus loin en essayant de définir la problématique de l'entreprise plutôt que celle de l'étude et qui challengent le client sur ses objectifs tout au long du
processus. Les vrais consultants à valeur ajoutée arrivent tellement bien à réaliser ce travail sur la base des éléments disponibles au début du processus, qu'ils réussissent parfois à solutionner la problématique sans passer à la phase d'étude. Le client est alors facturé pour l'intervention de consulting plutôt que pour les travaux d'études. James Organ, d'ACA Research précise que « Les instituts d'études ont traditionnellement été rémunérés grassement pour gérer un processus sans que les retours fournis ne brillent par leur perspicacité. Nous avons besoin de développer la pensée critique et l'approche stratégique. Nous avons volontairement pris la décision d'évoluer d'une orientation processus vers un business-model plus diversifié, avec du conseil en management, du design, de la recherche et une expertise large sur pas mal de sujets. Nous nous sommes donc écartés d'un modèle de pure recherche sans en perdre les avantages ». Bien entendu, le conseil suppose la personnalisation. Les instituts qui connaissent les meilleures croissances sont ceux qui complètent leurs solutions standards par des approches personnalisées avec des démarches plus efficaces, définies sur mesure. Kris White précise son point de vue sur la polarisation du marché des études : « D'ici 5 ans, l'industrie de la recherche marketing aura été à la fois plus loin et plus en profondeur, du fait de l'évolution technologique et de la renaissance de la psychologie classique. Il est probable qu'elle se divisera en deux domaines principaux : un niveau macro (le big data, les médias sociaux...) et un niveau basé sur des approches psychologiques en profondeur (l'ethnographie, l'économie comportementale...). Les deux dimensions nous informeront davantage sur les comportements réels. On peut espérer que l'industrie cessera de se référer aux gens comme des consommateurs. » Choisir la bonne stratégie n'a jamais été aussi difficile que dans notre marché post-crise financière. Les acheteurs d'études ont réévalué leurs choix et ne continueront plus à acheter comme avant. Il y a un besoin constant d'inno-
surveyquest research we turn your data into business advantage Survey project management
Data-management consultancy
Survey software distribution
Surveyquest can manage your data capture and research projects from inception to completion no matter how complex.
Surveyquest can assist you in designing, capturing, cleansing, enriching and merging data to make it more suitable for your current needs.
We are the UK distributor of Ethnos, Net-Survey and the Soft Concept survey and business intelligence tools.
Surveyquest Ltd | +44 (0)20 8577 6779 | mobile +44 (0)77 8863 2552 | sales@surveyquest.co.uk Survey Magazine - Avril 2014 13
MARCHÉ vation, comme l'indique Kristen Luck de l'institut américain Decifer pour qui l'industrie des études est basée sur la peur avec un ralentissement d'activité, associé à des croissances externes plutôt qu'organiques. Pour Kristen, les instituts luttent en faisant la même chose, ce qui permet à des nouveaux entrants plus innovants de tirer le marché vers le bas et de lancer des solutions de rupture comme Google Consumer Surveys ou Survey Monkey. Le Big Data introduit une approche holistique
Big Data est grand ! Habituellement, les conclusions reposaient sur une seule source d'information, ce qui se révèle obsolète dans de nombreux cas. Investir du temps dans l'analyse de multiples sources de données permet aux instituts de délivrer des conseils de qualité et d'impressionner leurs clients. A l'ère du Big Data et alors que les fournisseurs d'études adoptent de plus en plus les approches des consultants en management, cette analyse de sources multiples permet d'avoir une vision plus holistique, d'autant plus que les problématiques des entreprises sont rarement simples. En plus des données d'enquêtes, les instituts les plus performants collectent et analysent des données complémentaires auprès des clients, y compris des statistiques de fréquentation, des données comportementales, le suivi des activités sur les réseaux sociaux, des historiques issus de campagnes précédentes, des chiffres de vente, etc. Toutes ces données ajoutent de la profondeur à l'analyse. On sait cependant que les médias numériques, s'ils permettent les mesures les plus faciles, comportent aussi le plus de risque de mauvaise interprétation. Beaucoup d'entreprises mesurent mais peu d'entre elles exploitent au mieux leurs données en leur donnant du sens. Les mesures cross-media constituent aussi un grand défi et exigent de comprendre et de quantifier l'accès sur une plateforme particulière, mais aussi de saisir la manière dont les gens se comportent et interagissent avec le contenu sur différentes plateformes. Quelle est la somme de toutes les parties et comment chaque plateforme peut être utilisée efficacement pour atteindre les objectifs commerciaux des clients ? Beaucoup d'entreprises tentent de répondre à ces questions avec plus ou moins de réussite, mais il reste encore du travail et donc des opportunités à saisir. Les nouvelles technologies accélèrent tout
Les techniques de recherche numérique comme les communautés en ligne, le qualitatif online et la recherche mobile sont répandues aujourd'hui et viennent accélérer le processus de prise de décision du client et sa proximité avec les personnes et instituts chargés de la recherche. Les instituts d'étude ont un besoin croissant d'investir dans des technologies qui permettent à leurs clients d'accéder en temps réel à l'information. Comme l'indique James Organ d'ACA Research, « Les gens peuvent utiliser la technologie pour fournir des données sur le poste de travail qui peuvent être distribuées par l'entreprise. Les données en temps réel peuvent être mises à disposition sur le bureau de manière efficace et constituer un véritable outil de décision. » Selon Peter Drinkwater de House of Brand, « Les clients achètent différemment. Ils ne recherchent plus de grandes analyses complexes et de longue haleine. Ils exigent des réponses plus rapides, plus simples et plus souples. Ils ne veulent pas attendre, ce qui met la pression sur l'analyse. 14
Survey Magazine - Avril 2014
La co-création est une clé
Il convient désormais d'engager le répondant plutôt que de le soudoyer pour qu'il veuille bien s'impliquer. Pour Kristen Luck de Decifer, le défi est de rendre la recherche bonne pas seulement pour les clients mais aussi pour les répondants. Dans un contexte de baisse des taux de réponse, les instituts ont eu recours au chantage, à la ruse et à la corruption. Les gens ne veulent plus être que des numéros. Les instituts ont donc besoin de personnaliser la recherche. Les communautés en ligne et la co-création permettent aux participants de se rapprocher de l'entreprise, du sujet qu'ils doivent discuter et les uns des autres, ce qui donne une plus grande satisfaction et nécessite moins d'incitations lourdes. Cela peut marcher également à l'avantage des clients, qui veulent se rapprocher de leurs « consommateurs », les voir, les entendre et les toucher à travers des vidéos et des interviews plus personnelles. Dans une co-création réussie, les participants peuvent devenir des partenaires collaboratifs, qui veulent réellement participer aux recherches et s'engager pour la marque. Nous sommes passés de l'ère industrielle (construire des choses) à l'ère sociale (connecter des choses). Les gens contribuent là où leurs compétences sont vraiment appréciées et recherchées. Pour Terry Nolan de T Garage, cela explique le développement et le succès des communautés en ligne où la motivation sociale a été appliquée à l'espace de recherche. L'homme est intrinsèquement social et cherche des interactions avec les autres. Les participants aux communautés en ligne sentent qu'ils contribuent à quelque chose de grand et font la différence. Pour Annalies Verhaeghe d'InSites Consulting nous vivons un décalage complet qui nous fait passer d'une posture où nous posons des questions à des personnes vers une situation où nous faisons des choses avec les gens, et les impliquons dans l'analyse. Elle a baptisé cette évolution « Crowd Interpretation », entendant par là qu'il faut faire interpréter aux différents participants à la recherche les contenus fournis par les autres participants. Cela aboutirait à découvrir des éléments cachés que vous n'auriez pas trouvés, étant trop impliqué dans le processus, en tant que responsable de la recherche. Elle préconise également de vérifier les résultats des analyses avec les répondants, pour s'assurer que vous avez bien interprété ce qu'ils ont dit. Cela permet également d'établir une relation continue avec le participant. Les répondants souhaitent un partenariat et des retours de la même manière que les organismes de recherche veulent les commentaires de leurs clients. Ce serait là une bonne façon de les satisfaire. Les prols de la réussite
Au final, c'est toujours une question de personnes. Même si un institut investit dans le top de la technologie, il faut savoir comment les choses sont réalisées. Il faut des personnes capables de comprendre l'évolution des plateformes, avec une curiosité naturelle pour être à l'affût de la prochaine grande innovation. Les professionnels seront plus intelligents et moins orientés sur les processus, plus axés sur le business et son développement. Ils doivent également être hybrides pour travailler avec des méthodologies variées, tirer des informations de sources multiples et transformer les données en informations significatives capables de conduire à des conclusions valables. Un bon professionnel doit pouvoir se rendre à une réunion avec une idée de la façon dont un projet peut fonctionner, écouter le client, comprendre le cas échéant que cela ne fonctionnera pas, déterminer ce qui pourrait marcher et l'exposer au client.
MARCHÉ
Listen s.a Rue Grand Aaz 31 B-4680 Hermée - Belgium
Tel : +32(0)4 229 85 45 Fax : +32(0)4 229 85 51
info@listen.eu www.listen.eu
Survey Magazine - Avril 2014
15
ÉVÈNEMENTS
Valentine Girault-Matz vgirault-matz@ethnosoft.com
Les salons des études en Europe Comme dans toutes les professions, les intervenants du marché des études marketing ont besoin, dans leur communication, de l'outil particulier que constitue un salon professionnel. Même si ce vecteur n'est plus aujourd'hui l'élément principal de visibilité sur le marché (ce rôle étant désormais dévolu principalement au web et aux supports numériques), le salon professionnel reste un moment privilégié pour rencontrer physiquement des prospects et se confronter dans un même lieu aux concurrents et aux autres intervenants du marché. Dans le métier des études, deux manifestations principales concernent le métier en France : le Printemps des Etudes, salon très spécialisé et Stratégie Clients, évènement plus généraliste qui a absorbé l'historique Salon des Etudes Marketing et Opinions (SEMO). Nous vous présentons ci-contre ce nouveau salon, dont le positionnement semble particulièrement prometteur. Si l'on s'intéresse plus globalement au marché européen, le principal évènement regroupant les professionnels du secteur est le salon Research & Results, qui se déroule chaque automne à Munich. Nous avons été à la rencontre de son directeur, M. Hans Reitmeier qui nous fait découvrir cette manifestation.
16
Survey Magazine - Avril 2014
ÉVÈNEMENTS France
Le SEMO se fond dans Stratégie Clients Après quelques éditions chaotiques, l'avenir du Salon des Etudes Marketing et Opinions (SEMO) semble enfin se redessiner. Jadis événement incontournable du métier des études marketing, ce salon a connu de nombreuses vicissitudes dont l'organisation d'un salon concurrent, le Printemps des Etudes, initié par un regroupement de plusieurs acteurs du métier.
vous unique, « toutes les solutions aux enjeux des études d'aujourd'hui, la maîtrise des données, la relation client, l'e-commerce et le marketing direct transcanal », les organisateurs ont donc adopté une stratégie payante.
La mutation L'année dernière, le SEMO a rejoint d'autres grands rendez-vous du marketing, les salons Stratégie Clients (salon de la relation client, anciennement SECA), M-DIRECT (salon des professionnels du marketing direct) et B-Ecommerce (axé ecommerce). Les organisateurs ont associé au nom SEMO l'indication « 100% Solutions » pour bien marquer la nouvelle orientation très opérationnelle de l'évènement. Malgré l'absence des grands acteurs des études qui ont préféré concentrer leurs efforts sur le « Printemps des Etudes » programmé à quelques jours d'intervalle, le SEMO 100% Solutions peut se targuer d'avoir bénéficié d'une fréquentation importante. En effet, au total, 12 829 visiteurs ont arpenté les allées de la manifestation et des salons associés alors que le « Printemps des Etudes » rassemblait 2 180 visiteurs pour sa 2ème édition Bien entendu, les milliers de visiteurs revendiqués par le nouveau pool de salons n'étaient sans doute pas tous concernés par l'univers des études. 1 450 seulement s'étaient inscrits pour visiter en priorité la partie consacrée aux études. On peut toutefois raisonnablement penser que même si le but initial de la visite n'était pas lié principalement à des problématiques d'études, au moins 75% du public global pouvait s'intéresser, de par ses fonctions de direction ou liées au marketing et à la communication, aux thématiques des études. En regroupant dans un même lieu lors d'un rendez-
En face, le Printemps des études pouvait plus faire penser à un rassemblement ultra-spécialisé de puristes des études, cultivant l'entre-soi, avec un certain détachement par rapport aux changements de paradigmes environnants, à un moment où les études marketing peuvent de moins en moins faire cavalier seul et doivent s'intégrer dans des dispositifs plus larges d'optimisation de données.
La nouvelle donne pour 2014 Pour l'édition 2014, l'ex-SEMO c'est-à-dire la partie axée études sera, par ailleurs, complètement intégrée au pôle connaissance du salon Stratégie Clients. « Il n'y a plus de salon SEMO cette année, nous souhaitons que les études s'inscrivent dans la partie connaissance du client, elles s'insèrent dans un environnement beaucoup plus large » nous a expliqué Ghislaine de Chambine, Directrice du salon Stratégie Clients. Paradoxalement, la renaissance du SEMO semble donc passer par la disparition de cette appellation. Le SEMO est donc mort. Vive Stratégie Clients. Cette réunion est censée offrir aux visiteurs « toute la richesse de solutions à leurs besoins relationnels, que ce soit avec leurs prospects, clients et fournisseurs ». Les nouvelles technologies révolutionnaires d'écoute client, de traitement et d'analyse des données s'intègrent parfaitement dans cet environnement et marquent un véritable renouveau de la relation client. Aujourd'hui, le consommateur s'est mué en véritable consom-acteur multicanal, grâce au web et aux réseaux sociaux qui offrent une grande possibilité
Survey Magazine - Avril 2014
17
CLIENTS
ÉVÈNEMENTS d'interaction. Il est donc plus informé, moins crédule et plus exigeant, mais aussi plus versatile. Il suscite l'offre et se trouve au cœur de la stratégie marketing des entreprises qui s'orientent vers une relation client beaucoup plus interactive. Immédiateté, réactivité, personnalisation sont aujourd'hui les maîtres mots de la relation client. Et dans une économie, où « l'expérience client est devenue l'élément majeur de la différenciation des marques », la connaissance client trouve toute sa pertinence et son importance. « Nous traitons la connaissance client de son origine à sa maturité. A l'origine on y trouve les études. Nous prenons en compte les nouveaux besoins des entreprises et les nouveaux concepts digitaux » précise Ghislaine de Chambine. Le salon E-marketing (dont Tarsus France a repris l'exploitation en août 2013), représentera justement la partie digitale lors de ce rendez-vous. Les salons M direct et B-Ecommerce se fondront dans le salon E-Marketing. Romuald Gadrat, président de Tarsus France, s'est félicité de ce rapprochement : « Nous avons souhaité rassembler les deux salons les plus représentatifs de ces secteurs d'activité, sur un même lieu et pendant la même période ». Un des temps forts du salon Stratégie Clients sera la remise de sept Trophées Vénus de l'Innovation du Marketing Digital et de la Relation Client lors de la nocturne qui se tiendra le 9 avril. Un prix sera par ailleurs décerné aux études digitales. Ces prix récompensent « des produits ou services audacieux et novateurs, en terme de prospection, fidélisation ou relation client, BtoB ou BtoC ». Pour Ghislaine de Chambine « C'est une remise de prix très originale. Ils seront décernés à 50% par un jury et 50% par les visiteurs. Le public pourra voter sur le salon via une application Smartphone. C'est lors de la nocturne qui s'annonce très festive que les prix seront décernés. Il y aura un animateur et les deux finalistes auront deux minutes pour défendre leur projet. Cet événement permet de créer le buzz sur internet, il y a déjà des vidéos en ligne. Beaucoup d'animations sont prévues pour cette année, l'idée est d'avoir un salon amusant et digital ». Une édition, qui s'annonce donc riche en surprises.
18
Survey Magazine - Avril 2014
MARKETING
ETUDES
Le Printemps des Etudes, quant à lui, tiendra à nouveau son édition simultanément, les 10 et 11 avril, toujours au Palais Brogniart. Le salon affiche sans complexe sa différence et son positionnement profondément divergent de Stratégie Clients. « Le Printemps des Etudes est un rendez-vous professionnel centré sur les études. C'est l'image que la filière possède de ce salon, c'est sa valeur ajoutée et son savoir-faire » nous explique Stéphanie Perrin, commissaire générale du salon. Créé par des exposants déçus de l'ancien SEMO, le Printemps des Etudes en est seulement à sa troisième édition. L'affluence pourrait donc croître cette année. Le salon se prévaut d'être une manifestation pointue, en se positionnant « sur une filière de niche en termes d'auditorats et d'exposants ». En effet, 60% des exposants sont des instituts d'études. Les organisateurs entendent conserver et défendre cette grande spécialisation qui, pour Stéphanie Perrin, répond à un besoin précis de la filière, alors que le salon Stratégie Clients aborde une thématique marketing assez large. Pourtant, le Printemps des Etudes n'élude pas la nécessité d'intégrer les problématiques environnantes : « Nous prenons en compte les évolutions du secteur que nous développons lors des échanges et rendez-vous de prise de parole sur des sujets qui vont bien au-delà du monde des études, sur les problématiques du Big data, du neuro marketing, de l'e-reputation et de la veille internet, par exemple. » Il s'agit donc bien là d'une réflexion sur la nécessité d'inscrire les études dans un ensemble beaucoup plus large. Pourquoi, alors, ne pas adopter d'emblée une approche transversale, en réunissant une palette d'acteurs plus large et plus variée ? Stratégie Clients, lui, semble avoir compris l'intérêt d'une telle démarche.
ÉVÈNEMENTS
Interview
Research & Results réunit les européens à Munich
Le monde des études n'échappe pas à la mondialisation. Les grands instituts se sont lancés depuis plusieurs années déjà dans de grandes opérations de regroupements, fusions, acquisitions et rapprochements de toutes sortes, pour se donner les moyens de répondre aux problématiques désormais mondiales des grands donneurs d'ordre. Même les instituts de taille plus modeste ont suivi le mouvement en concluant des accords avec des homologues étrangers et en mettant sur pied des associations transfrontalières capables de mener des études dans plusieurs pays à la fois. On peut citer comme exemple « Global Market Research » qui regroupe des sociétés indépendantes dans 29 pays (MV2 en France, Listen en Belgique, etc., infos sur www.agmr.com). Dans ce contexte, il paraissait normal que les salons de la profession des études s'internationalisent également. Survey-Magazine s'est intéressé pour vous au plus grand évènement européen des études marketing, le salon « Research & Results » qui se tient toutes les années à Munich et qui regroupe 140 exposants venus du monde entier. Nous avons été à la rencontre de M. Reitmeier, directeur du salon « Research & Results » et par ailleurs rédacteur en chef de la revue allemande éponyme. www.research-results.com
S u r v e y - M a g a z i n e : B o n j o u r Monsieur Reitmeier. Pouvez-vous nous présenter le salon Research & Results en quelques mots ? Hans Reitmeier : Research & Results est le principal salon européen dédié aux études marketing. Il a lieu à Munich tous les automnes. La 9ème édition aura lieu les 22 et 23 octobre 2014. Le salon rassemble des exposants allemands et étrangers du monde entier, qui viennent proposer leurs produits et services, et animer des conférences pour y présenter les dernières orientations et tendances dans les études. SM : Comment vous positionnezvous dans le paysage des salons européens concernant les études marketing ? HR : Research & Results attire un ensemble varié de visiteurs, avec une g rande part de clients finaux. Il rassemble également un large panel d’exposants. Parmi eux, on retrouve aussi bien les plus grands instituts d’études que des petites structures. Il y a des entreprises entièrement dédiées aux services ainsi que des entreprises terrain ou des fournisseurs de logiciels. A notre connaissance, Research & Results est le principal salon international dédié aux études marketing. Et son succès n’a fait que grandir depuis 2006 ! L’année dernière, l’événement a rassemblé plus de 3000 participants, 140 exposants et 91 conférences ont été organisées. S M : A v e z - v o u s b e a u c o u p d'exposants et de visiteurs venus de France ? HR : Les visiteurs français sont toujours moins représentés que leurs confrères européens. Mais nous avons de bonnes raisons de penser que leur nombre va augmenter cette année. L’an dernier, nous avions organisé un « village français » au sein du salon, pour y attirer les instituts français. Dans cet emplacement qui leur était dédié, ils ont présenté leurs différentes offres. Et cela a très bien marché. SM : D'après vous, quelles sont les oppor tunités pour les sociétés d'études françaises sur le marché allemand ? HR : Le plus grand intérêt qu’offre Research & Results aux sociétés d’études
françaises est de leur ouvrir les portes du marché allemand des études, l’un des plus grands au monde. La plupart des entreprises leaders sur le marché des études en Allemagne exposent ou visitent le salon. Les sociétés françaises tels les fournisseurs de solutions informatiques ou de terrains d’études ont ici l’occasion de présenter leurs produits et services aux instituts allemands qui ont à gérer des projets internationaux. Le salon offre également la possibilité d’entrer en contact avec des entreprises multinationales comme Henkel ou Baiersdorf : 35 pour cent des visiteurs en 2013 étaient des clients finaux potentiels. De plus, les instituts d’études français peuvent échanger avec des visiteurs du monde entier. En 2013, ils étaient plus de 200 en provenance de l’étranger. Le marché allemand est parfaitement représenté et le nombre d’exposants et de visiteurs internationaux ne cesse d’augmenter. SM : Quelles grandes tendances et évolutions percevez-vous dans le paysage européeen des études ? HR : A mon sens, les enquêtes mobiles, le Big Data, les réseaux sociaux et l'étude de communautés en ligne constituent les grandes évolutions en cours sur le marché des études européen et mondial. SM : Quelles ont été les orientations et innovations majeures du salon Research & Results 2013 ? HR : Il est très difficile de choisir parmi toutes les innovations car toutes les entreprises présentent, chaque année, leurs derniers produits, et la plupart sont en lien avec les évolutions que je viens de mentionner. SM : Que nous réserve la prochaine édition du salon Research & Results ? HR : Les entreprises profitent toujours du salon pour exposer leurs dernières nouveautés en termes de produits et d'applications. Ils les promeuvent surtout lors des conférences, qui sont toujours très fréquentées : l'année dernière, certaines ont attiré plus de 130 participants. De plus, nous allons accentuer cette année l'orientation internationale du salon et ferons notre maximum pour gérer de manière optimale l'afflux important de visiteurs attendu pour cette nouvelle édition.
Survey Magazine - Avril 2014
19
DÉCRYPTAGE Soline Pulicani spulicani@ethnosoft.com
La Qualité dans les études
La France est atteinte de sondagite aigüe. Il ne se passe pas un jour sans qu'on ne publie un sondage sur un sujet ou l'autre. Les entreprises elles aussi réalisent une multitude d'études dans le domaine du marketing mais aussi des ressources humaines, de la qualité, etc. Une fois transformés en chiffres frappants ou graphiques chatoyants, les résultats viennent éclairer les décisions, frapper les esprits ou surprendre. On se focalise alors sur ces éléments synthétiques, en se souciant généralement peu de la manière dont ils ont été obtenus. Cet écueil finit par sauter aux yeux dans certains domaines comme celui des sondages politiques dont on discute la validité mais toujours a posteriori. En revanche, dans beaucoup d'autres domaines, les résultats passent sans qu'on n'en évalue la qualité ou que l'on s'interroge sur leur mode d'obtention. Or les études, sondages et autres enquêtes font appel à des concepts scientifiques et doivent être menés, pour être valables, dans le respect de certaines règles et précautions impératives. Quelles sont ces règles ? Comment peut-on se prémunir, lorsqu'on construit un questionnaire et que l'on mène une étude contre les risques d'erreurs et les multiples pièges attachés à cette technique ?
20
Survey Magazine - Avril 2014
DÉCRYPTAGE La qualité est un terme qui ne possède pas de définition unique. Or, pour l'atteindre, il paraît essentiel de savoir ce que l'on met exactement sous ce vocable. Selon l'une de ses définitions usuelles, la qualité est « la supériorité, l'excellence en quelque chose ». Pour l'AFNOR « un produit ou service de qualité est un produit dont les caractéristiques lui permettent de satisfaire les besoins exprimés ou implicites des consommateurs ». Eurostat précise sept composants de la qualité : la pertinence, la précision, les délais, la disponibilité, la comparabilité (temporelle ou géographique), la cohérence et la complétude (au sens où l'on couvre l'ensemble des besoins).
ISO 20252, la norme de qualité des études Dans l'univers des études de marché et d'opinion, une norme qualité a été mise en place au niveau international pour définir les termes et préciser les exigences en matière de services à respecter par les entreprises et les professionnels du secteur. Cette norme, intitulée ISO 20252 est née en 2006, à l'initiative de l'Efamro (Fédération Européenne des Associations des Professionnels dans le domaine des Etudes de Marché). Elle a ensuite été améliorée et complétée en 2012. Jusque-là, le secteur s'inspirait en la matière de la seule norme NF Service 50-057 lancée en 2000 par Afnor Certification et le Syntec Etudes Marketing et d'Opinion. ISO 20252 repose sur les mêmes principes que la norme de référence ISO 9001 pour le management de la qualité, en les adaptant au contexte et aux activités d'étude. Ses exigences portent sur l'ensemble du processus de recherche depuis la demande du client jusqu'à la présentation des résultats. La norme impose 351 points de contrôle visant à garantir aux clients et au grand public des résultats d'enquêtes reflétant la réalité et n'ayant pas pu être transformés, m a n i p u l é s o u d i s s i mu l é s p a r l'entreprise. La certification ISO 20252 permet ainsi de déterminer des procédures précises et harmonisées, applicables sous toutes les latitudes. Elle initie une démarche d'amélioration continue et installe un degré de qualité commun à tous les organismes d'études dans le monde. Cela permet à l'ensemble des clients, peu
importe leur implantation géographique, de disposer d'un critère de confiance certain. Concrètement, les dominantes certifiées concernent : La méthodologie : l'objectif de l ' étu d e, l a d éfin i ti o n d e l a population à étudier, les thèmes abordés, la planification de l'étude, le briefing des enquêteurs, le coût et les délais… Le savoir-faire : l'organisation du recueil d'information, la formation du personnel, la maîtrise des sous-traitants… La transparence : la protection des données à caractère personnel, l'anonymat du client, la transparence à l'égard des personnes interrogées... En appliquant les dispositions de la norme, les professionnels des études sociales, de marché et d'opinion certifiés sont censés améliorer leur niveau de qualité de service, en profitant d'un système de management de la qualité répondant aux problématiques propres à leur secteur. Cela leur permet également de mieux gérer les risques et de standardiser leurs processus. Il est évident que la certification s'accompagne ég alement d'un bénéfice important en matière d'image et apporte un avantage concurrentiel et des facilités dans le cadre des activités à l'international. Elle permet également de fédérer les équipes autour d'un projet commun exigeant et participe à une plus grande efficacité générale et à une amélioration de la qualité, grâce notamment aux nombreuses procédures précises tournées vers la satisfaction des clients.
Comment mener une étude de qualité ? La qualité a donc de nombreux avantages. Mais elle a aussi un inconvénient majeur : la difficulté de l'appliquer à tous les niveaux de l'activité par manque de temps ou de méthode. Ceci est d'autant plus vrai dans les entreprises qui ne se sont pas encore lancées dans le processus long et coûteux de la certification. Pour faciliter la mise en œuvre de la qualité dans les études, reprenons ci-dessous chaque étape du processus d'enquête en mettant l'accent sur les éléments dont il faut tenir compte et sur les précautions à prendre pour éviter les
EN
QUÊ
QUA
TE D
E
LITÉ
écueils et optimiser la qualité et la validité des données. Une bonne dénition du périmètre de l'enquête
Comme pour tout projet, la première étape du processus d'étude consiste à bien clarifier l'objectif. Il doit correspondre à une problématique parfaitement définie, qu'il s'agit de résoudre. Un objectif clair pour toutes les parties prenantes de l'étude permet de mettre en place une démarche cohérente et adaptée. A l'inverse, un objectif peu précis ou non partagé entraîne des risques de dispersion ou de confusion entre les fins (l'objectif) et les moyens (l'étude). Le flou peut s'instiller entre le client et son institut ou entre les différents services de l'entreprise qui n'ont pas toujours les mêmes préoccupations et les mêmes appréciations sur le marché, les produits et les clients. Ces écarts d'orientation ou de positionnement sont autant de désaccords latents qui peuvent ressortir en fin de process et remettre en question l'ensemble de l'enquête. Si la problématique n'est pas assez analysée, discutée, validée puis consignée par écrit dans une formulation simple et claire on peut aboutir à des enquêtes mal ciblées, poursuivant un objectif flou ou plusieurs objectifs contradictoires et qui finissent par ne satisfaire personne ou par être contestées en fin de course. C'est également le cas si le demandeur et son prestataire (interne ou externe) ne vérifient pas que les choses ont bien été comprises de la même manière, de part et d'autre. La clarté de la problématique et de l'objectif poursuivi sont donc des pré-requis de la qualité. Il en de même pour l'unicité de cet objectif. En effet, il est souvent tentant de profiter Survey Magazine - Avril 2014
21
DÉCRYPTAGE d'une enquête pour répondre à différentes problématiques c o m p l é m e n t a i r e s, p a r c e qu'elles concer nent, par exemple, une même population ou qu'elles intéressent un même service. Ce type de velléité aboutit généralement à un questionnaire complexe et perturbant pour les répondants. A vouloir trop embrasser, on risque de mal étreindre en ne répondant finalement à aucune des problématiques envisagées. Il faut donc s'efforcer de s'en tenir à un objectif unique en préférant faire plusieurs enquêtes si on doit traiter plusieurs problématiques (ce qui est parfois difficile à expliquer au client interne ou externe). Il est un autre point qui est parfois difficile à cerner et qui peut remettre en question la raison d'être et l'utilité de l'enquête. Il s'agit du caractère opérationnel de l'objectif poursuivi. Il arrive en effet que certaines problématiques soient très intéressantes en tant que telles mais qu'elles ne puissent aboutir à aucune décision ou modification possible dans le produit ou le service. Le fait d'avoir la réponse ne sert donc à rien. La question ne se pose donc tout simplement pas et l'enquête n'a pas lieu d'être. Il est donc important mais pas toujours évident de s'assurer de la capacité de l'entreprise à agir en fonction de la réponse qui sera obtenue à la question posée, et de se limiter dans ses vélléités d'investigation, aux domaines où cette capacité
22
Survey Magazine - Avril 2014
d'action est réelle. Cette démarche concerne bien entendu le client demandeur. Une méthodologie adaptée
Tous les problèmes ne se traitent pas de la même manière et n'appellent donc pas la même méthodologie, aussi maîtrisée soit-elle. Les instituts qui reproduisent à l'identique les mêmes études quelle que soit la question à traiter font généralement de la non-qualité. Il est bien sûr naturel qu'un professionnel qui maîtrise une approche cherche à l'appliquer. Mais les automatismes guidés par la volonté d'aller vite avec ce qu'on connaît plutôt que de bien faire en s'ouvrant sur de nouvelles approches, doivent laisser la place à une véritable réflexion adhoc avec une porte ouverte à la créativité et aux solutions les plus adaptées. C'est plus difficile mais plus qualitatif. Toutes les observations récentes concernant la profession (cf les 3 études présentées dans les pages précédentes) pointent d'ailleurs l'importance de la personnalisation et du conseil pour réussir sur le marché des études. Les instituts qui vont bien se positionnent sur ces plans. Il est vrai que certains tirent également leur épingle du jeu en faisant carrément l'inverse, avec des approches simplifiées et ultrastandardisées destinées à traiter des problématiques de base. D'autres contraintes comme le budget alloué, peuvent dénaturer l'objet de l'étude. Le coût est essentiel mais lorsque la prestation n'est jaugée qu'à l'aune économique, on peut aboutir à des enquêtes menées de manière incomplète ou incohérente et qui ne permettent pas de résoudre les problématiques définies. Autant dans ce caslà ne pas faire d'enquêtes du tout. Le budget doit être alloué en fonction du projet plutôt que l'inverse. C'est bien sûr plus facile à dire qu'à faire. Mais si la démarche est
UNE ETUDE DE QUALITÉ EXIGE UN OBJECTIF OPÉRATIONNEL CLAIR ET CIBLÉ.
CEUX QUI REPRODUISENT À L'IDENTIQUE LES MÊMES ÉTUDES QUELLE QUE SOIT LA QUESTION À TRAITER FONT GÉNÉRALEMENT DE LA NON-QUALITÉ.
bien étayée et les objectifs poursuivis vraiment importants, il y a fort à parier que les décideurs y regarderont à 2 fois plutôt que de valider une approche moins coûteuse mais inutile. Le juste prix en la matière est celui qui permet d'atteindre l'objectif. Le poids des habitudes et les contraintes financières peuvent égarer. Mais le pire (et le plus fréquent) des écueils que nous rencontrons est lié à un manque de considération pour les répondants qui frôle parfois l'autisme. En effet, plongés dans leurs objectifs et leurs contraintes, beaucoup de professionnels en viennent à oublier, lorsqu'ils conçoivent leurs démarches et leurs supports, qu'ils vont avoir affaire, en face, à des humains et non à des « répondants » taillables et corvéables à merci. C'est ainsi qu'on en arrive à l'incroyable consensus qui règne encore dans l'univers des instituts sur une durée moyenne de questionnaire de 20 minutes alors que nous savons tous, en tant que répondants, que cette durée est absolument insupportable. A notre avis, un questionnaire qui dure plus de 5 minutes a intérêt à être sacrément intéressant et agréable pour qu'on puisse s'y intéresser. Comment peut-on alors considérer dès que l'on passe du côté des concepteurs d'enquêtes, que la durée (moyenne !) peut être multipliée par 4 sans conséquences ? Notons à ce niveau que notre règle des 5 minutes peut souffrir quelques exceptions dans des enquêtes très particulières comme les études d'audience presse ou radio. Pour ces questionnaires (CAWI pour la presse en majorité et CATI pour la radio), il convient de compenser la longueur par un soin particulier apporté à la clarté, à la structuration et à la formation des enquêteurs. Le bon échantillon
Avec la généralisation des
DÉCRYPTAGE
enquêtes web, la notion d'échantillonage qui constituait auparavant le socle de toute enquête est passée au second plan. En effet, alors que le nombre de personnes sollicitées influait directement sur le coût des enquêtes en face à face ou CATI (par téléphone), le fait d'adresser plus ou moins de sollicitations n'a plus aujourd'hui les mêmes incidences surtout lorsqu'on travaille sur des fichiers existants ou des panels p r o p r i é t a i r e s. E t m ê m e lorsqu'on doit solliciter des fournisseurs de panels, le coût unitaire d'accès au répondant n'a rien à voir avec les dépenses de recrutement liées aux anciens modes d'investigation. Ayant à moins réfléchir sur le nombre de personnes à interroger et au choix de son échantillon, on en oublie de plus en plus l'importance de la notion de représentativité dans l'extrapolation des résultats obtenus. Le plus
souvent, l'enquête est donc effectuée sur l'échantillon qui se présente et les résultats dépouillés avec ou sans l'application de redressements a posteriori. Les résultats sont ensuite généralisés à la populationmère de manière abusive et en opposition avec les fondements de la théorie des sondages. Pour disposer de résultats fiables et de qualité, il convient donc, quel que soit son mode d'enquête, de bien penser son échantillon. La méthode admise est celle des quotas qui représente déjà un compromis avec la rigoureuse théorie statistique du tirage aléatoire à partir d'une base de sondage exhaustive. La méthode empirique des quotas consiste à déterminer les critères de répartition les plus pertinents pour qualifier la population à sonder puis à chercher à interroger des personnes en respectant
ON NÉGLIGE DE PLUS EN PLUS L'IMPORTANCE DE LA NOTION DE REPRÉSENTATIVITÉ POUR L'EXTRAPOLATION DES RÉSULTATS OBTENUS.
cette répartition. Les systèmes d'enquêtes web modernes (Net-Survey de Soft Concept par exemple) permettent de définir les quotas de réponses et de gérer en temps réel le non dépassement de ces quotas. On peut aussi préférer laisser tout le monde répondre puis redresser son échantillon pour lui faire respecter les critères de répartition au moment du traitement (avec le logiciel Ethnos par exemple). Outre sa structure, la taille de l'échantillon est également essentielle pour la qualité des résultats. Cette taille détermine la fameuse marge d'erreur souvent évoquée dans les médias après une élection pour expliquer les écarts entre sondages et r é s u l t a t s. C e t t e m a r g e correspond au niveau de fiabilité avec lequel nous pouvons extrapoler les r é s u l t a t s o b t e nu s d a n s l'enquête à la populationmère étudiée. Pour en savoir plus sur la méthode des quotas et le calcul de la taille optimale de vos échantillons, consultez notre article « L'enquête par questionnaire » sur notre site www.surveymag.eu. Vous y trouverez notamment un tableau de marges d'erreurs par taille d'échantillon.
Survey Magazine - Avril 2014
23
DÉCRYPTAGE
Des supports de recueil optimisés
Une enquête de qualité repose sur un support d'enquête de qualité. Cette évidence doit conduire à accorder le plus grand soin à l'organisation et à la présentation du questionnaire. Pour ce faire, nous vous conseillons de garder en permanence à l'esprit non seulement votre objectif mais également le confort de vos répondants. Le questionnaire doit être progressif et logique. Vous pouvez adopter une organisation en entonnoir qui propose au démarrage des questions simples et neutres et qui progresse vers les questions les plus pointues ou les plus personnelles. Si vous n'avez pas à vérifier les quotas, il vaut mieux placer les questions signalétiques (sexe,
24
Survey Magazine - Avril 2014
âge, profession...) en fin de questionnaire. Outre la structure, il est i m p o r t a n t d e ve i l l e r à optimiser la formulation des questions afin d'obtenir des réponses valables et non biaisées. Il convient pour cela d'éviter dans vos questions le jarg on technique et les expressions ambiguës ou compliquées. Le choix des réponses proposées doit également être effectué avec soin pour minimiser les non réponses et les abandons lorsque le répondant se retrouve dans une impasse avec des propositions de réponses qui ne lui conviennent pas. Les échelles, souvent utilisées dans les e n q u ê t e s, d o i ve n t ê t r e harmonisées tout au long du questionnaire (une même
« LA FORME C'EST LE FOND QUI REMONTE À LA SURFACE »
échelle si possible pour ne pas dérouter le répondant). Pour atteindre les objectifs de l'étude, un questionnaire doit être non seulement bien construit mais également bien présenté. « La forme est le fond qui remonte à la surface » disait Victor Hugo. Il est évident qu'en matière de questionnaire un manque de soin dans la présentation c a ch e s o u ve n t u n s e n s déficient de la qualité et un manque de considération p o u r l e s r é p o n d a n t s. Combien de questionnaires nous arrivent régulièrement dans des mises en page sommaires et qui manquent singulièrement de professionalisme ? A un moment où l'on parle beaucoup de rendre les questionnaires plus ludiques (voir notre article sur la g amification), la première étape pour s'assurer d'un bon taux de retour serait déjà de proposer des mises en formes propres et claires, dans un environnement visuel adapté. Pour avoir des réponses de qualité, la première des choses est donc de proposer des environnements de réponse de qualité. Un questionnaire, aussi bien conçu et bien présenté soit-il, peut contenir des imperfections et des cas limites qui pourraient altérer la qualité des résultats recueillis. Une phase de test est donc un pré-
DÉCRYPTAGE
requis absolu avant le lancement de l'enquête. Ce test doit se dérouler en situation réelle avec de vrais répondants. En effet, des testeurs professionn e l s ( vo s c o l l è g u e s p a r exemple) peuvent comprendre un concept métier que vos répondants peuvent ignorer. De même, le système de cheminement et de choix de réponses peut être clair pour des utilisateurs experts mais beaucoup moins pour le public visé. La phase de test peut concer ner un petit échantillon extrait de la population cible. L'écoute des remontées suite au test doit également être organisée pour éviter la simple appréciation d'ensemble qui peut cacher des points importants à améliorer. Une collecte contrôlée des réponses
La qualité du recueil des données est vraiment déterminante dans la qualité globale du projet d'enquête. En effet, l'analyse des données présuppose que l'on dispose d'informations correctes. C'est malheureusement loin d'être toujours le cas. Le plus grave est que l'on a beaucoup de mal à se rendre compte de la qualité des réponses a posteriori (une fois que les données ont été rassemblées et mises à disposition pour la phase de traitement). Il est donc nécessaire que le contrôle soit effectué au moment où les données sont recueillies. Un soin particulier doit être porté à la qualité du terrain. Cela passe bien sûr, à la base, par des questionnaires bien étudiés et des supports de collecte adaptés mais aussi par des enquêteurs choisis avec soin (pour les enquêtes CATI ou en face à face) et briefés de manière précise. Beaucoup de
clients se plaignent malheureusement de la qualité des e n q u ê t e u r s e m p l oy é s y compris par les instituts les plus prestigieux. Pour éviter les déconvenues, il convient d'insister sur la qualité du briefing (avec des vérifications de la compréhension de l'enquête) et du processus de contrôle en cours d'enquête. Ce suivi passe, pour les enquêtes CATI par une écoute et un enregistrement des conversations (à suivre en temps réel plutôt qu'après l'enquête, quand ce sera trop tard !). Pour les enquêtes en face à face, les enquêteurs peuvent être, dans le meilleur des cas, accompagnés pour démarrer ou sinon, contrôlés régulièrement sur pièce (relecture des premiers questionnaires, identification des incohérences, appels aux enquêteurs pour lever des doutes, rappel de quelques personnes interrogées à par tir des coordonnées relevées en fin de questionnaire et qui ne doivent pas être là juste pour la forme...). Les enquêtes mobiles apportent, dans ce domaine du suivi des enquêtes sur le terrain, pas mal de possibilités nouvelles pour améliorer la fiabilité des éléments remontés et le contrôle du respect des consignes. Il est possible, par exemple, avec des applications mobiles d'enquêtes comme MobiSurvey de relever automatiquement la position GPS du lieu d'enquête et d'intégrer dans les questionnaires des demandes de prise de photos, d'enregistrement audio ou vidéo. Ces éléments multimédia peuvent ainsi compléter o u é t ay e r l e s r é p o n s e s collectées (ex : photo d'un ticket de caisse, d'une nonconformité, d'un emplacement ; enregistrement sonore d'une remarque sur une insatisfaction ; filmage d'un mode d'utilisation...). Le fait que les éléments recueillis soient transférés rapidement au serveur d'enquêtes (dans la journée voire plusieurs fois par jour) permet d'effectuer le suivi et le contrôle en quasi
temps réel, avec la possibilité d'effectuer des ajustements immédiats.
BEAUCOUP DE CLIENTS SE PLAIGNENT DE LA QUALITÉ DES ENQUÊTEURS, EMPLOYÉS MÊME PAR LES INSTITUTS LES PLUS PRESTIGIEUX.
LES ENQUÊTES SUR MOBILES AMÉLIORENT LA QUALITÉ DU TERRAIN PAR LA LOCALISATION GPS ET LA REMONTÉE D'IMAGES OU DE COMMENTAIRES SONORES.
De la prudence dans le traitement des données
Une fois le terrain d'étude réalisé, on est en possession d'un fichier de données qu'il s'agit d'analyser. Après les premiers contrôles de cohérence et de structure des données (qui peuvent mettre en évidence des erreurs et signaler des questionnaires mal remplis et/ou à supprimer), on peut s'attaquer à la phase de traitement ellemême.
Il est souvent nécessaire d'appliquer à l'échantillon recueilli un redressement pour le rendre conforme avec l'image de la populationmère. L'objectif est de réduire voire d'éliminer les erreurs d'échantillonnage, de non réponse ou de mesures hors norme, afin d'améliorer la représentativité de l'échantillon interrogé. Pour simplifier, si on dispose par exemple dans la population globale des clients de 70% de petites entreprises et de 30% de grandes structures et que l'échantillon comporte 80% de petites et 20% de grandes, le logiciel de traitement appliquera un coefficient de 7/8 aux réponses des petites entreprises et de 3/2 aux autres. Le redressement est habituellement multicritères, c'est à dire qu'il s'effectue sur plusieurs critères déterminés, ce qui est complexe mais à la portée des bons outils d'enquêtes. Leur principe est de gérer des Survey Magazine - Avril 2014
25
DÉCRYPTAGE itérations multiples afin d'arriver, en se basant sur les différentes variables et leurs répartitions à converger vers les bons coefficients à attribuer aux différents individus en fonction de leurs réponses aux variables de redressement. Le risque vient justement de la facilité technique à la disposition des utilisateurs. En effet, en multipliant les critères, on peut arriver à des résultats convergents mais au prix de coefficients de redressement qui peuvent donner des poids exagérés à certains individus et en éliminer quasiment d'autres. Un redressement de qualité doit utiliser peu de variables, aussi corrélées que possible avec la thématique de l'enquête. Les automatismes peuvent donc masquer des biais et conduire à des interprétations erronées. Au delà des problèmes de redressement, la facilité à obtenir des tableaux et des graphiques qui croisent les multiples critères de l'enquête ne doit pas dispenser d'analyser les éléments obtenus avec recul et circonspection. On rencontre très souvent des graphiques de résultats dont les pourcentages masquent un nombre très faible d'individus. Les tests statistiques censés attester de la fiabilité des analyses peuvent également
ê t r e t r o m p e u r s. A i n s i , l'application d'un simple test du khi2 sur un tableau croisé avec un effectif total de moins de 30 personnes ou un effectif théorique pour au moins une case de moins de 5 individus donne un résultat erroné. Il en est de même lors de l'utilisation de méthodes avancées d'analyse de données, que les outils statistiques modernes mettent à la portée de tous. Ainsi, les mappings d'analyse factorielle sont certes beaux et impressionnants. Mais si les indicateurs de qualité associés aux axes ne sont pas fournis, on peut arriver à interpréter avec force détails des résultats faux relevés à partir d'une répartition multidimensionnelle pauvre, qui ne restitue qu'une très faible partie de l'information. La règle en matière de traitement est donc de ne faire que ce que l'on connaît bien, en s'entourant des précautions indispensables, détaillées dans tous les bons ouvrages statistiques.
dent à rien. D'autres pêchent par une pauvreté de présentation et un amateurisme qu'on ne comprend plus à l'ère des TOUT ÇA POUR outils d'enquêtes et des ÇA. C'EST PARFOIS logiciels d'infographie faciles d'accès (cf notre article sur CE QU'ON SE DIT l'infographie, page 57). EN DÉCOUVRANT Un bon rapport doit UN RAPPORT répondre de manière concise MAL FICHU. et claire à la problématique de l'enquête. Des efforts doivent être portés sur sa présentation et l'exposé de ses conclusions. Une étude bien conçue doit mener à un résultat bien énoncé dans un rapport efficace et bien présenté. Ici aussi, les outils de traitement d'enquêtes peuvent être d'une g rande aide mais pousser parfois à force de tris faciles à obtenir, à un surcroît d'informations sans rapport avec l'objectif direct de l'étude. Abondance de biens ne nuit pas... à condition d'en faire bon usage. disponibles Lectures conseilléesOuvrages sur www.surveymag.eu
De la pertinence dans les restitutions
Tout ça pour ça. C'est parfois ce qu'on se dit à la vue d'un rapport d'analyse mal fichu. Certains sont des catalogues de tableaux et graphiques qui étalent tout mais ne répon-
www.orphee.fr 35 rue de la République 92150 Suresnes – France Tél. +33(0)1 42 04 20 00 E-mail : orphee.contact@orphee.fr
rphée CONSEIL ET QUALITÉ
Visites mystère Orphée propose depuis 30 ans un réseau de clients mystère international avec plus de 6000 enquêteurs qualifiés et formés pour mesurer la qualité de service. Orphée assure l’analyse, l’exploitation et l’accompagnement de vos visites mystère à travers des méthodes et processus innovants. 30 ans d’expérience 6000 enquêteurs Innovation et accompagnement International
26
Survey Magazine - Avril 2014
DOSSIER
Le digital au service de la connaissance des clients
Les nouveaux outils pour capter la voix du client dans un monde ultra-connecté
29 34 36 42 48 50
L'essor de la collecte mobile de données La géolocalisation au service des études L'observation des communautés virtuelles Les nouveaux apports de la gamication L'arrivée en force des micro-surveys + Eye tracking, Enquête par webcam, Réalité Augmentée, Double screen… Survey Magazine - Avril 2014
27
DOSSIER Dossier coordonné par : Gérard Danaguezian gdanaguezian@ethnosoft.com
Dossier « Le digital au service de la connaissance des clients »
A nouveau consommateur nouvelles études L'univers de la recherche marketing connaît en ce moment un renouvellement important dans ses approches et ses outils. Les méthodes classiques comme les enquêtes web, le CATI ou les focus groups sont encore majoritaires. Mais dans un monde du tout numérique, où le consommateur est ultra-connecté, d'autres procédés arrivent en force, qui visent à mieux appréhender l'ensemble des paramètres de la connaissance clients. Certains de ces procédés sont radicalement nouveaux mais d'autres correspondent davantage à des apports technologiques innovants qui viennent se greffer aux techniques et méthodologies existantes, pour les étendre et les renforcer. L'époque est, au choix, passionnante ou inquiétante. Les changements en oeuvre ouvrent en effet des perspectives impressionnantes. Mais ils sont porteurs, dans le même temps, de grandes menaces pour tous les professionnels du secteur. En effet, les nouvelles approches sont parfois plus techniques, souvent plus complexes, toujours plus connectées que les bonnes méthodes traditionnelles. Elles nécessitent des capacités d'adaptation et d'anticipation plus élevées qu'auparavant ainsi qu'une orientation technologique claire et affirmée. Tous les instituts ne disposent pas forcément de ces pré-requis, ce qui laisse augurer l'arrivée prochaine sur le marché de nouveaux entrants plus techniques ainsi que des difficultés croissantes pour certains instituts, déjà bien éprouvés par la situation économique actuelle. L'enjeu aujourd'hui est de s'adapter rapidement et de s'approprier les nouveaux outils de la recherche marketing. Ce dossier vise justement à faire le point sur les nouveautés et méthodes les plus marquantes et les plus susceptibles de faire la différence sur le marché des études. Ces nouveautés s'articulent aujourd'hui autour des 6 axes suivants : Le big data Le flot de données en provenance de toutes parts est une mine d'or pour la recherche marketing. Nous y avons consacré un article dans le précédent Survey-Mag. Vous pourrez le lire sur le site. Nous l'évoquons brièvement en fin de dossier, en même temps que d'autres techniques Les mesures biométriques L'amélioration de la connaissance du cerveau humain et les capacités nouvelles de capture et de transmission des éléments physiologiques promettent de tout dévoiler de manière scientifique sur le comportement humain. Ces techniques sont juste évoquées dans ce dossier. Vous pouvez consulter notre article traitant de Neuromarketing sur le site. Les micros-enquêtes Google les a déjà lancées aux Etats-Unis, au Canada et au Royaume-Uni. Elles vont débarquer sur notre marché dans l'année et risquent de changer beaucoup de choses. 28
Survey Magazine - Avril 2014
Les techniques de recherche mobile Les smartphones et les tablettes font naître des applications et des méthodologies innovantes, qui vont bien au delà de la simple utilisation de ces nouveaux périphériques dans le cadre d'enquêtes classiques.
29
50
36
48
Les communautés virtuelles Le développement des réseaux sociaux permet d'envisager leur utilisation directe ou à travers des plateformes spécifiques pour se rapprocher des consommateurs et les placer au centre du processus d'étude.
42 La gamification des enquêtes La solution pour optimiser les taux de réponses passe peut-être par le jeu. Le phénomène de gamification qui est déjà très répandu dans la relation entre les marques et leurs consommateurs, se développe dans l'univers de l'enquête.
1
DOSSIER
L'essor de la collecte mobile de données r, Les enquêtes mobiles sur smartphones et tablettes font partie aujourd'hui des innovations les plus marquantes sur le marché mondial des études. Comme le montre l'étude internationale GRIT, 41% des instituts s'en servent déjà et une proportion identique de 41% s'y intéresse. Il ne reste donc plus que 18% de retardataires qui ne se sont pas encore penchés sur le système et qui risquent d'en pâtir dans un monde des études en pleine mutation.
Pourquoi les mobiles ? La réponse est évidente à deux titres : La généralisation des smartphones et des tablettes rend nécessaire le recours à ce canal pour accéder plus facilement à certaines cibles. Bea uco up d e p erso n n es n e disposent d'ailleurs plus d'une ligne téléphonique fixe. De plus, la connexion au web via les mobiles a maintenant dépassé largement l'accès à l'internet depuis les PC. Les appareils mobiles sont particulièrement adaptés à la remontée de données. Ils disposent d'interfaces de qualité qui permettent aux professionnels d'administrer sous une forme simple des questionnaires complexes (récupération d'images ou vidéos, affichages conditionnels, rotations, etc.) et aux personnes interrogées de répondre facilement à tous types de questions. Les mobiles sont donc très répandus et très adaptés. Ces considérations sont essentielles par rapport aux méthodologies d'études actuelles. Mais bien au delà, les caractéristiques particulières des smartphones et tablettes ouvrent tout un champ de possibilités nouvelles et protocoles de recherche avancés. En effet : Les mobiles sont utilisables à tout moment. Ils per mettent aux répondants de communiquer en temps réel, d'être sollicités ou de choisir de réagir à certaines heures
de la journée ou lorsqu'ils sont confrontés à un évènement p a r t i c u l i e r : u t i l i s a t i o n d ' u n produit, passage dans un magasin, contact avec une publicité, réaction à une émission radio ou TV... Ils permettent de remonter une information considérablement enrichie avec des données que l'on n'imaginait même pas pouvoir obtenir auparavant : capture de position GPS, prise de photo, son, vidéo, code-barres, chrono, etc. Ces caractéristiques font que l'utilisation du support mobile pour la recherche marketing correspond davantage à un changement de paradigme qu'à une simple nouvelle technologie additionnelle par rapport à la panoplie des outils existants. Par exemple, le remplacement d'une solution CAPI à base de Pocket-PC (que plus aucun fabriquant ne propose) par une solution utilisant des smartphones se révélera certainement satisfaisante mais restera limitée si on ne profite pas de l'occasion pour remettre à plat les process existants en cherchant à bénéficier des nombreux apports supplémentaires des mobiles.
Deux approches différentes Malgré leur diffusion rapide, il y a encore beaucoup de confusion lorsqu'on parle d'enquêtes mobiles. Pour bien préciser les choses, il convient de distinguer deux types d'approches : L'enquête web-mobile utilisée sur les navigateurs mobiles, en mode connecté, L'enquête full-mobile accédée via une application spécifique de réponse aux enquêtes mobiles (qui a donc été installée au préalable sur le smartphone ou la tablette de l'utilisateur) pour une utilisation en mode connecté ou déconnecté. On imagine facilement les cibles et champs d'application de chacune de ces deux approches.
L'enquête webmobile
Toute enquête web est déjà une enquête web-mobile. En effet, le répondant peut, comme pour toute page web, y accéder depuis le navigateur de son smartphone (ce qu'il fait d'ailleurs de plus en plus fréquemment). Toutefois, une enquête webmobile bien conçue doit aller plus loin en tenant compte des différentes tailles des matériels censés y accéder. On peut, pour cela, se contenter du minimum, en concevant un gabarit de petite taille qui s'affichera correctement sur les mobiles et en tout petit dans un navigateur PC. Ce n'est bien sûr pas l'idéal. Il existe une solution technique, liée aux feuilles de style CSS3 qui permet de construire des gabarits avec ce qu'on appelle le 'Responsive Design' (à base de Media Queries en CSS3/HTML 5). Dans ce cas, la taille du questionnaire peut s'ajuster automatiquement à la taille d'écran du répondant. On peut même personnaliser la disposition des questions pour proposer la forme la plus adaptée (liste déroulante ou case à cocher par exemple). En revanche, le responsive design affecte uniquement la présentation des éléments et non la str ucture du questionnaire. Le contenu de chaque écran est le même mais dans une disposition différente. Ce n'est pas toujours suffisant. Il existe d'autres solutions techniques permettant non seulement l'adaptation de la présentation mais également le réglage du mode de questionnement pour chaque type de périphérique. C'est le cas de la technologie Multi-cibles proposée dans le logiciel d'enquêtes web & mobiles Net-Survey M. Dans ce mode, le concepteur définit son questionnaire pour une cible donnée (ex : navigateur PC) avec le contenu et la présentation adaptée. Il ajoute ensuite une ou plusieurs autres cibles. Il peut s'agir de navigateurs particuliers, de périphériques définis (Iphone, Ipad...) ou de tailles d'écran
Survey Magazine - Avril 2014
29
DOSSIER maximales. Le système adapte alors le questionnaire à la cible et permet également de changer la structure des écrans. Il est ainsi possible de concevoir un questionnaire pour mobiles n'affichant qu'une question par écran alors que ce même questionnaire apparaîtra sur un navigateur PC avec plusieurs questions regroupées sur la même page. Il en est de même pour l'affichage de tableaux complexes qui peuvent être découpés, en mode mobile, en structures plus simples. Au final, le résultat est un même questionnaire qui sera déployé sur le serveur en plusieurs versions différentes, accessibles toutes à la même adresse. Le système détectera automatiquement le navigateur du répondant pour lui servir la version adaptée. Toutes les données vont, bien entendu, alimenter la même base quel que soit l'appareil utilisé pour répondre. Les enquêtes web utilisées sur mobile peuvent donc s'adapter au périphérique mais elles ne sont pas en mesure d'exploiter toutes ses possibilités spécifiques comme la prise de photo ou l'enregistrement audio/vidéo. Par ailleurs, elles nécessitent d'être en permanence connecté pour répondre. L'enquête full-mobile
Ce type d'enquête apporte une réponse complète, spécifique et donc parfaitement adaptée aux mobiles. Elle peut en exploiter toutes les possibilités et fonctionne en mode déconnecté pour ensuite renvoyer les réponses au serveur dès que l'appareil est en zone de couverture. Elle est donc adaptée aux tablettes qui n'ont pas de connexion ou d'abonnement téléphonique mais seulement une liaison Wifi. Ces caractéristiques idéales passent toutefois par l'installation d'une application sur l'appareil. L'utilisation de l'enquête web-mobile s'en trouve donc limitée à des publics captifs ou très motivés, qui auront à répondre plusieurs fois au même questionnaire ou à différents questionnaires dans le temps. En effet, même si l'installation de l'application est gratuite et très rapide (essayez d'installer par exemple Mobi-Survey depuis l'AppStore ou Google Play), on ne peut demander à des répondants ponctuels de le faire. En revanche, c'est le système idéal pour les enquêteurs terrain qui peuvent réaliser leurs enquêtes en mode déconnecté et cliquer sur un bouton pour synchroniser les données (envoi des réponses et récupération de nouvelles enquêtes éventuelles). Il peut également concerner des répondants qui vont installer l'application dans le cadre d'un protocole d'enquête (panélistes, testeurs, répondants rémunérés) ou d'une relation continue (membres d'un club, abonnés qui vont avoir des avantages via l'application). La technologie des enquêtes mobiles a atteint sa maturité. Elle offre un terrain formidable d'invention et d'innovation. D'innombrables applications sont déjà techniquement possibles mais attendent, pour s'épanouir l'imagination et la créativité des hommes et femmes d'études.
30
Survey Magazine - Avril 2014
L'envol du Les avantages distinctifs de l'enquête mobile en font une belle opportunité dans est un. Les acteurs (opérateurs, aéroports...) ne s'y sont pas trompés qui se sont technologie. Ils y ont trouvé enfin le moyen de réaliser facilement et de manière res (légales ou conventionnelles) et qu'ils géraient auparavant avec une débauche
Interview
Les enquêtes dans les aéroports Sur vey-Magazine : Quels sont les types d'enquêtes que réalisent généralement les aéroports ? Olivier Althuser : Il y a une enquête commune que réalisent tous les g rands aéroports. C'est l'enquête trafic qui vise à déterminer d'où viennent les passagers et où ils vont. Il s'agit là d'un outil important pour négocier avec les compagnies aériennes l'ouver ture de nouvelles liaisons. Les aéroports en ont besoin pour se développer. L'enquête sert également à mieux déterminer la zone de chalandise et les habitudes de séjour des voyageurs. Au Royaume-Uni, cette étude est gérée par l'autorité de régulation en collaboration avec l'ensemble des aéroports, ce qui permet une mutualisation des moyens et des résultats. Une bonne pratique à importer en France… Il y a par ailleurs les enquêtes de satisfaction des clients. Ces enquêtes sont très importantes puisque les aéroports, contrairement à d'autres entreprises, n'ont pas de relation contractuelle directe avec leurs clients, au contraire des compagnies aériennes qui ont vendu le billet d'avion. Les aéroports ne disposent donc pas des coordonnées des clients pour les interroger par le web par exemple. Il faut donc capter le client quand il est là, en cherchant à récupérer ses coordonnées quand il achète
un service (abonnement parking, commerces…) ou en l'interrogeant sur place. SM : Y-a-t-il des obligations légales en matières d'enquêtes ? OA : Les obligations portent sur les contrôles de conformité des actions de sécurité qui sont d'ailleurs parfois réalisées en triple ou en quadruple (par l'aéroport, le prestataire de sécurité, la DGAC et la Police). Il y a aussi les contrôles sanitaires généralement sous la responsabilité des concédants (audits de restaurants...). Par ailleurs, les aéroports doivent également prouver leur capacité à assurer la sécurité des aéronefs au sol. Les autorités viennent contrôler et faire des relevés et des audits réglementaires. SM : Quels sont les enquêtes réalisées à Saint-Exupéry ? OA : Nous en réalisons beaucoup. Il y a donc l'enquête de trafic, les contrôles terrain concernant la sûreté et la sécurité, puis tout le volet enquêtes de satisfaction. Nous participons par exemple à l'enquête internationale ASQ (Airport Service Quality), administrée dans 285 aéroports, sous l'égide de l'ACI (Airport Council International). Cette enquête nous permet de mesurer la satisfaction des passagers sur 34 items et de pouvoir nous comparer aux autres aéroports. participants. Nous devons interroger 550 passagers par trimestre en respectant les niveaux de trafic sur l'ensemble des 3 mois et des 7 jours de la semaine. Nous complétons cette étude générale par d'autres, plus spécifi-
DOSSIER
mobile beaucoup de secteurs. Le transport en précipités massivement sur cette économique des enquêtes parfois obligatoid'efforts et de moyens.
Nous avons renc Responsable Pôle ontré Olivier Althuser, Direction Qualité Satisfaction Passagers à la Exupéry, pour en de l'aéroport de Lyon Sainttypes d'enquêtes qusavoir plus sur les différents pour avoir son éc e réalisent les aéroports et déjà les technologieslairage sur ce qu'apportent mobiles dans ce sect eur. ques à Saint-Exupéry, où nous creusons certains détails (parkings, navettes, site web, centre d'affaires, information en situation perturbée...). Je peux également parler des enquêtes métier avec par exemple une évaluation des commerces de l'aéroport à raison de 2 vagues par an pour bien dimensionner notre offre ou l'enquête sur le respect de nos engagements de service décrits dans la charte passagers. Enfin, nous avons une étude très originale intitulée Safari, et qui consiste à capter l'expérience au moment où elle est vécue, selon le protocole suivant : un enquêteur muni d'une tablette aborde un voyageur (seul, en famille, en groupe...) sur le parking et lui propose de le suivre durant son parcours. L'enquêteur évalue alors à chaque étape du parcours en choississant ses questions dans l'ordre imposé par les choix du client. Notre questionnaire complet comporte plus de 1.500 critères mais seuls quelques dizaines sont évalués à chaque fois, selon ce que le voyageur a choisi de faire (passage aux toilettes, terminal visé, commerces fréquentés, etc.). SM : Que vous apporte la technologie mobile pour vos enquêtes ? OA : L'enquête Safari par exemple ne pourrait pas se faire sans notre système Mobi-Survey. Par ailleurs, le mobile nous permet de collecter les données et d'avoir des résultats en temps réel. Nous gagnons du temps, n'avons plus rien à ressaisir. De plus, nos questionnaires peuvent évoluer d'un jour à l'autre. Une nouvelle version remplace la précédente automatiquement, sans que personne n'ait rien à faire (synchronisation). Bref, c'est pour nous l'outil idéal.
Témoignage
Enquêtes mobiles à l'aéroport de Montpellier L'aéroport de Montpellier vient de mettre en place des enquêtes sur tablettes, en utilisant les outils de Soft Concept : Net-Survey M pour la conception et l'application Mobi-Survey pour la saisie. Pauline Royo, responsable du projet, témoigne. Jour de notre rencontre, le 6 janvier 2014 ou plus précisément, le 7 (oui, le lendemain de mon arrivée à l'Aéroport). Premiers ressentis : une fenêtre assez « épurée » et conviviale et une véritable impression de déjà-vu (c'est rassurant !). Je commence à parcourir le guide d'utilisation, j'arrive en page 25 lorsque je lis que sa « lecture est conseillée à tous les utilisateurs débutants, ou qui n'ont plus utilisé le logiciel depuis longtemps ». Quelle bonne nouvelle ! Cela veut donc dire qu'il est possible d'apprendre avec cet ouvrage. Enfin, un peu méfiante tout de même, car ces promesses ont aussi un air de déjà-vu... Et me voilà lancée à la découverte du logiciel, puis très rapidement à celle de la hotline : Steeve, Nicolas, Sébastien, Hélène, Catherine… Quelle belle équipe à mon service ! Tous ensemble et après une semaine et demi (à peine) : Le questionnaire était monté et déployé sur les tablettes, L'échantillonnage des vols avait l'air plutôt « pas mal », Le planning des enquêtes était prêt pour le lancement, Les enquêteurs briefés par un mail que j'ai voulu le plus pédagogique possible (impression d'écran, couleurs, titres). Nous lancions les sondages en Salle d'embarquement pour le 20 Janvier ! Ouf, juste à temps ! Alors évidement, les jours de formation sont arrivés. C'était les 27 et 28 Février dernier. Je fais donc la connaissance « d'un nouveau ». Voici Stéphane, je me dis, tiens, original ce bonhomme. La veille de sa venue, je lui ai transféré l'ensemble de mes fichiers : ZIP, .NTFS, Excel, Base de données, tous ces documents accompagnés d'un mail d'environ deux pages pour présenter les objectifs de l'Aéropor t de Montpellier. Je l'avoue : je suis un peu « navrée » de lui envoyer une telle charge de travail mais ça ne l'a pas effrayé du tout ! A son arrivée
j'ai vite compris, effectivement, c'est un passionné cool ! Je crois que c'est comme ça qu'il faut voir la Vie, on devrait bien s'entendre. Nous avons passé deux jours à plancher sur mes enquêtes, je découvre avec plaisir les fonctionnalités ludiques, raccourcis et autres outils me permettant d'améliorer encore le fonctionnement de mes enquêtes. Nous avons performé mon questionnaire et facilité le traitement des données pour la suite. Il a pris son train toujours « last minute » mais nous avons poursuivi la formation à distance, et ce, malgré les coupures. Il m'a laissé un tas de supports sur lesquels il a travaillé, quel investissement ! Aujourd'hui, cette « petite » équipe de développeurs, ingénieurs, permet à l'Aéroport de Montpellier de mieux connaître ses passagers. Ce sont aussi mes enquêteurs qui m'appuient dans cette démarche et y contribuent pleinement. Et bien sûr, nous remercions les passagers qui participent très volontairement à notre sondage. Nous passons de très bons moments avec eux : nous découvrons leurs cultures, leurs modes de vie, voire même parfois leurs Vies tout simplement. Ces moments sont aussi l'occasion de les écouter et de répondre à leurs interrogations. C'est avec un « petit » sourire que cet article se termine, quelques souvenirs (anecdotes) me viennent : une personne qui me répond en chantant, une dame qui me demande : « et moi, je n'ai pas été sondée ! », une autre qui me demande pourquoi il n'y a pas de sirop à la menthe. Je repense aussi au plaisir que j'ai ressenti lorsque je retrouve « miraculeusement » le jeune propriétaire de Donatello et Michelangelo, les tortues Ninja oubliées près du coin « restauration ». Bref, tout ça, c'est la vie des gens, et c'est enrichissant. In fine, jamais je n'aurais pu imaginer l'expérience humaine (pour ne pas dire Humaniste) qui se cachait derrière cela. Survey Magazine - Avril 2014
31
DOSSIER
Smart Service
Stéphane RONTEIX sronteix@forceplus.com
L'irrésistible montée en puissance de la collecte des données par smartphones dans l'industrie Le développement du service ainsi que la rétention des clients existants sont deux stratégies mises en place par la plupart des groupes industriels depuis 10 ans. Parallèlement, la part croissante des distributeurs comme canal de vente de ces mêmes industriels a, de facto, créé une plus grande distance entre eux et leurs clients finaux. Cette distance complique la collecte des données pertinentes auprès des utilisateurs alors qu'elles sont pourtant indispensables pour développer la rétention des clients et la vente de services. Dans ce contexte, les smartphones et les applications associées de collecte de données apparaissent comme la voie la plus prometteuse pour aider les industriels à retrouver économiquement le contact avec leurs clients utilisateurs tout en renforçant leurs canaux de vente 3D.
Augmenter la rétention des clients naux
la collecte de données au niveau des utilisateurs finaux.
Plusieurs recherches confirment que pour retenir ses clients, diminuer le nombre de clients insatisfaits s'avère plus important que d'augmenter le nombre de clients satisfaits. Plutôt que de développer de nouveaux « bons services », il est donc plus rentable d'éliminer les « mauvais services ». Ces derniers sont de 2 ordres : d'une part demander trop d'efforts pour déposer une réclamation, et d'autre part sacrifier la qualité de la réponse à la rapidité de la réponse. Pour cela, l'industriel s'efforce de créer un processus de collecte des données qui soit facilement accessible, convivial et fiable. Des qualités que l'on retrouve dans les applications des Smartphones et qui expliquent leur développement pour
Voice of Customer - Lutter contre le coûteux silence du client nal Dans le BtoB, lorsque les problèmes sont sérieux, 75% des utilisateurs rapportent ces problèmes... à leur distributeur. En fait, moins de 5% des problèmes sérieux remontent jusqu'à l'industriel producteur. Il en résulte pour l'industriel un manque de visibilité et d'écoute sur ce qui se passe véritablement sur le terrain. Désormais fortement présents chez les utilisateurs finaux, les smartphones créent le moyen de combler économiquement cette distance entre un industriel et ses clients.
Ouvrir la boite de Pandore de la collecte des données terrain. Une fois déployée, l'utilisation des smartphones pour collecter les données des utilisateurs finaux se traduit par un recueil d'informations riches et variées. La consolidation et le traitement de ces données demandent des ressources nouvelles en l o g i c i e l s e t e n c o m p é t e n c e s. Aujourd'hui le secteur BtoB se prépare à cet afflux de données et à son entrée dans le monde du Big Data. Les défis à relever avec l'arrivée des smartphones dans l'univers de la relation industriel-client final sont é n o r m e s. M a i s l e s b é n é fi c e s économiques de ces nouveaux modes de gestion de la relation client sont colossaux.
Leader de l'externalisation commerciale pour l'industrie depuis 1983, Force Plus propose des solutions de Gestion de Relation Client dédiées au BtoB. En partenariat avec Soft Concept, Force Plus a développé WysiPlus, une suite d'applications et de services uniques et innovants permettant aux industriels de collecter, consolider et traiter de manière fluide et efficace les données provenant de leurs utilisateurs finaux.
32
Survey Magazine - Avril 2014
DOSSIER
Les dernières générations de matériels mobiles Lors du choix de l'équipement de vos enquêteurs, les premiers critères à prendre en compte sont : 1. La taille de l'écran se choisit en fonction du type de questionnaire et des conditions dans lesquelles ce dernier sera mené. 2. La capacité de stockage dépendra de l'ampleur du questionnaire : nombre de répondants, taille du questionnaire et fréquence de synchronisation avec le SI. 3. La connexion internet n'est pas toujours nécessaire. Profitez des solutions d'enquêtes mobiles « offlines » qui permettent une synchronisation en différé. Le niveau d'autonomie dépendra de la situation d'enquête (extérieur/ intérieur) et de sa durée.
Tablettes grand format Système d'exploitation Processeur Mémoire RAM Résolution écran Taille de l'écran Technologie de l'écran Dimensions (mm) Poids (g) Capacité (Go) Connectique Carte mémoire 3G / 4G WIFI Autonomie Prix constructeur
iPad Air
Samsung Galaxy Tab Pro 12.2
Sony Xperia Z2
Asus Memo Pad 10
iOS 7 1.3 Ghz 1 Go 264 ppp 9.7 pouces (24.6 cm) Capacitif Multitouch 240.0*169.5*7.5 469 16 / 32 / 64 / 128 Lightning Non 3G & 4G Oui 10h 489 € - 885 €
Android 2.3 Ghz 3 Go 247 ppp 12.2 pouces (31 cm) LCD 295.6*204.0*8.0 740 32 Micro USB 3.0 Micro SD 3G & 4G Oui 12h A partir de 649 €
Android 2.3 Ghz 3 Go 224 ppp 10.1 pouces (25.7 cm) TFT 266.0*172.0*6.4 426 16 Micro USB 2.0 TransFlash / Micro SD Non Oui 13h A partir de 699 €
Android 2.3 Ghz 1 Go 149 ppp 10.1 pouces (25.7 cm) LCD 256.0*174.6*10.5 522 16 Micro USB 2.0 TransFlash / Micro SD Non Oui 9h A partir de 299 €
iPad Mini Retina
Samsung Galaxy Tab 3 lite
HP Slate 7
Asus Memo Pad HD 7
iOS 7 1.4 Ghz NC 326 ppp 7.9 pouces (20.1 cm) Capacitif Multitouch 200*134.7*7.5 331 16 / 32 / 64 / 128 Lightning Non 3G & 4G Oui 10h 399 € - 795 €
Android 1.2 Ghz 1 Go 170 ppp 7 pouces (17.8 cm) TFT 193.4*116.4*9.7 310 8 Micro USB 2.0 TransFlash / Micro SD Non Oui 9h 160 €
Android 1.6 Ghz 1 Go 170 ppp 7 pouces (17.8 cm) LCD 197.1*116.1*10.6 370 8 Micro USB 2.0 TransFlash / Micro SD Non Oui 5h A partir de 99.69 €
Android 1.2 Ghz 1 Go 216 ppp 7 pouces (17.8 cm) LCD 196*120.6*10.8 302 16 Micro USB 2.0 TransFlash / Micro SD Non Oui 10h A partir de 118.79 €
iPhone 5S
Samsung Galaxy S5
Sony Xperia Z Ultra
HTC One
iOS 1.3 Ghz 1 Go 326 ppp 4 pouces (10.2 cm) LCD 123.8*58.6*7.6 112 16 / 32 / 64 Lightning Non 3G & 4G Oui 10h A partir de 709 €
Android 2.5 Ghz 2 Go 432 ppp 5.1 pouces (13 cm) Super AMOLED 142*72.5*8.1 145 16 Micro USB 2.0 TransFlash / Micro SD 3G & 4G Oui 12h A partir de 679 €
Android 2.2 Ghz 2 Go 344 ppp 6.4 pouces (16.3 cm) TFT 179*92*6.5 212 16 Micro USB 2.0 TransFlash / Micro SD 3G & 4G Oui 14h A partir de 429.95 €
Android 1.7 Ghz 2 Go 469 ppp 4.7 pouces (11.9 cm) Super LCD 137.4*68.2*9.3 143 32 Micro USB 2.0 NC 3G & 4G Oui 18h A partir de 449.99 €
Tablettes petit format Système d'exploitation Processeur Mémoire RAM Résolution écran Taille de l'écran Technologie de l'écran Dimensions (mm) Poids (g) Capacité (Go) Connectique Carte mémoire 3G / 4G WIFI Autonomie Prix constructeur
Smartphones Système d'exploitation Processeur Mémoire RAM Résolution écran Taille de l'écran Technologie de l'écran Dimensions (mm) Poids (g) Capacité (Go) Connectique Carte mémoire 3G / 4G WIFI Autonomie Prix constructeur
Survey Magazine - Avril 2014
33
DOSSIER Technologie mobile
Guillaume RAC grac@ethnosoft.com
La géolocalisation au service des études Jeudi soir. En rentrant de son travail, Justine passe devant son supermarché de quartier. Alors qu'elle hésite à y entrer, son portable sonne : « Bonjour Justine. Profitez d'un bon d'achat de 5 € en répondant à quelques questions dans le magasin ». Elle pousse la porte et se dirige vers la borne interactive qui lui souhaite la bienvenue et lui affiche un questionnaire personnalisé. Non, vous ne rêvez pas, il sera bientôt possible de collecter suffisamment d'informations sur vos clients pour pouvoir communiquer avec eux de manière totalement personnalisée en fonction de leur position géographique. Près de 20 millions de Français possèdent déjà un smartphone et ce nombre croît rapidement. N'importe quel individu peut donc potentiellement être géolocalisé et suivi dans ses déplacements. Cela ouvre un champ infini pour des actions marketing ciblées mais pose également de nombreux problèmes juridiques, éthiques et déontologiques.
La géolocalisation Lancé dans les années 60 par l'armée américaine, le GPS (Global Positioning System) est un système de localisation mondial qui a été popularisé par les systèmes embarqués dans les véhicules. Il utilise les satellites afin de déterminer en temps réel la latitude, la longitude et l'altitude d'un émetteur. Aujourd'hui, de nouvelles techniques s'ajoutent à celle du GPS pour nous localiser. On parle donc maintenant plutôt de « GPS Data » pour désigner l'ensemble des données de géolocalisation, et pas seulement celles qui sont communiquées par les systèmes GPS. Parmi la variété de techniques de géolocalisation aujourd'hui disponibles, examinons celles qui peuvent intéresser le domaine du marketing et des études : La première est donc la géolocalisation GPS par satellite que tout le monde connaît. Cette technique est très précise puisqu'elle permet une localisation à 15 mètres près (100 mètres au maximum). D'après une étude du réseau social local et de proximité Yelp, c'est le moyen de géolocalisation le plus fiable. Moins précis que le GPS, la géolocalisation par GSM utilise les 34
Survey Magazine - Avril 2014
informations envoyées par les antennes GMS auxquelles les terminaux mobiles sont connectés. On note une variation de 200 mètres à parfois plusieurs kilomètres. Cela dépend de la densité d'antennes présentes aux alentours. Vous entendrez souvent le terme Cell-ID pour qualifier cette technique. La géolocalisation par Wifi fonctionne comme celle par GSM puisqu'elle va détecter les bornes wifi présentes autour de l'appareil à géolocaliser. La géolocalisation par adresse IP peut déter miner la position géographique d'un appareil à partir du moment où il est connecté à internet. C'est le système utilisé sur les PCs pour identifier votre emplacement. Les enquêtes web qui y font appel fournissent donc une localisation moins précise qu'avec un mobile puisqu'elles localisent plutôt votre point de connexion que votre lieu exact. La géolocalisation par RFID (Radio Frequency Identification) utilise un système de puce. Cette technique est principalement utilisée pour la géolocalisation indoor (en intérieur). On utilise également, pour ce type de localisation, le wifi et le Bluetooth. Ces techniques sont de plus en plus utilisées en combinaison pour obtenir des informations de localisation plus précises. Les données géographiques sont également couplées avec d'autres informations comme le temps et le profil de l'individu g râce à la multitude de renseignements que nous envoient les réseaux sociaux et autres lieux d'échanges. La géolocalisation qui s'était ouverte au grand public au départ pour faciliter les déplacements évolue donc vers de nouveaux usages et intéresse par son potentiel dans l'amélioration de la connaissance client et la fourniture d'insights consommateurs de qualité.
La technique séduit d'autant plus que les données qu'elle fournit peuvent être rattachées à un individu et couplées à d'autres données pour permettre des actions ultra ciblées. Pour tant, les infor mations de géolocalisation sont encore peu exploitées par les professionnels du marketing. Mais les choses sont en train de changer avec l'arrivée d'applications concrètes.
Le développement du Geofencing On peut aussi l'appeler publicité géolocalisée. Le geofencing a pour objectif d'attirer le consommateur vers son point de vente ou de lui proposer sur place des incitations à l'achat (promos, jeux...). Le système repose bien entendu sur une application que le client doit installer sur son mobile. En effet, il ne faut pas s'imaginer, pour l'instant, être capable de repérer la position de n'importe qui, n'importe où. Ces données sont connues des opérateurs téléphoniques mais ne sont pas communicables notamment pour des raisons juridiques. En revanche, une application installée volontairement et qui communique la position de l'appareil lorsqu'il est dans un périmètre défini permet d'envoyer à ce mobile des offres et messages en push. Il faut bien entendu que cette application soit démarrée. Des applications concrètes se développent. Ainsi, le centre commercial "La Vache Noire" à Arcueil propose à ses visiteurs une application de geofencing développée par la start-up Fidzup. Dès que le visiteur arrive dans le centre, il reçoit un premier message SMS l'informant des promotions en cours dans les différentes boutiques. Un peu plus tard, il reçoit un message "instant gagnant" qui lui propose de se rendre dans une boutique particulière pour voir ce qu'il a gagné. Au delà de ces applications purement
DOSSIER commerciales, on peut imaginer de nombreuses utilisations de cette technologie de localisation dans le domaine des études : la sollicitation des répondants pour des enquêtes ciblées, juste après l'acte d'achat ou à un intervalle défini après le passage sur le point de vente, la sollicitation de répondants correspondants à des profils déterminés pour leur proposer de participer à des panels ou de leur administrer sur place des enquêtes spécifiques (évaluation de produit, test de nouveaux concepts...), l'étude de la fréquentation des points de vente : fréquence de visite, heures de passages, temps d'attente en caisse, temps passé dans le magasin... le tout analysé par profil et en liaison avec les achats effectués, les tests d'efficacité publicitaire en repérant les passages aux environs des panneaux publicitaires et en identifiant donc les moments et lieux d'exposition les plus propices pour des cibles particulières, les études de concurrence, en plaçant des systèmes de localisation à des emplacements déterminés proches des points de vente concurrents. Certaines de ces applications peuvent faire appel à d'autres techniques de localisation que le GPS ou le GSM, pour permettre notamment un repérage précis. On parle de géolocalisation indoor, qui permet de
déterminer la position plus précise du client dans le magasin et de faire remonter des données plus riches (par exemple pour les rayons fréquentés ou l'attente en caisse). Toutes ces applications de géolocalisation inspirent spontanèment de l'intérêt pour les hommes de marketing et d'études. Mais elles peuvent susciter également une méfiance à plusieurs niveaux.
Limites et précautions Toute technique de collecte de données a des contraintes légales et déontologiques. Mais là, avec la géolocalisation, on perçoit spontanément l'importance d'un cadre sévère et d'un contrôle exigeant, pour prévenir les abus et minimiser les risques d'atteinte à la vie privée. Ces risques sont d'autant plus importants que l'on peut, avec cette technique, surveiller étroitement les déplacements et les activités des personnes. Le cadre juridique est encore, pour l'instant, celui de la loi n°78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés, modifiée, dite Loi Informatique et Libertés. Un projet de loi a été adopté le 24 février par l'assemblée nationale pour encadrer de manière drastique la géolocalisation à l'insu des personnes, afin de mettre le droit français en
conformité avec les exigences posées par la Cour européenne des droits de l’homme. Cette loi, qui fait actuellement l'objet d'un recours auprès du conseil constitutionnel, définit un cadre strict pour la surveillance des personnes avec des normes extrêmement sévères. Par exemple, elle punit d'au moins 5 ans d'emprisonnement quiconque s'introduit dans un domicile pour poser un dispositif de géolocalisation. Nous n'en sommes pas là au niveau du marketing et des études, mais il y a fort à parier que la sensibilité du public sur la géolocalisation va augmenter avec la multiplication des sollicitations. La règle de base sera toujours de s'assurer de manière formelle du consentement de la personne géolocalisée et de n'utiliser les données de géolocalisation que dans son intérêt et pour des activités ne pouvant pas nuire à sa vie privée. Les professionnels du marketing, conscients des dérives potentielles cherchent à encadrer l'utilisation de la t e ch n i q u e. L a M M A ( M o b i l e Marketing Association) a édité une charte sur la publicité géo-adaptée et d'autres org anisations comme l'Esomar et le Syntec disposent de chartes intégrant des dispositifs spécifiques à la géolocalisation. L'utilisation pertinente de la technique démarre à peine et les perspectives d'avenir s'annoncent fructueuses. Il serait bon d'utiliser les possibilités ainsi ouvertes à bon escient, pour ne pas risquer des blocages par la loi qui viseraient les usages abusifs mais qui entraveraient les usages utiles de la technique.
Survey Magazine - Avril 2014
35
2 DOSSIER
Soline Pulicani spulicani@ethnosoft.com
L'observation des communautés virtuelles
La Netnotgraphie Depuis quelques années, le web 2.0 a permis aux internautes de s'exprimer librement et de participer activement aux contenus du web à travers les blogs, forums, tchat, réseaux sociaux, etc. On note aujourd'hui une véritable explosion du phénomène blog osphère en France : sport, littérature, mode, beauté, humour, décoration, voyages ou encore cuisine, on trouve des blogs sur tous les sujets possibles et imaginables. La France est pourtant un peu en retard dans ce domaine, surtout en comparaison de ce qui se passe de l'autre côté de l'atlantique où les communautés en ligne se sont développées dès la fin des années 90. Cette nouvelle façon de communiquer entre consommateurs a d'ailleurs été étudiée par les américains quelques années avant nous. Suite à ces premières études et au développement des communautés, les acteurs du monde des études ont rapidement décelé une véritable mine d'informations disponibles publiquement et facilement au sein de ces platefor mes sur lesquelles les internautes, protégés par un écran, s'y confient sans pudeur et avec beaucoup de sincérité. Pour récupérer des insights pertinents sans terroriser les communautés, une méthode de recherche marketing a é t é s p é c i a l e m e n t i nve n t é e : l a Netnographie.
Le concept La netnographie est une méthode de recherche qui permet de mener des enquêtes qualitatives en utilisant l'outil internet. Principalement utilisée en marketing, elle est déjà scientifiquement prouvée et acceptée en dehors de nos frontières. Le terme netnographie a été créé par 36
Survey Magazine - Avril 2014
Robert V. Kozinets, chercheur en marketing à l'université de York à Toronto, à la fin des années 90. A l'époque de sa conception, il la définissait comme suit : « Une nouvelle méthode de recherche qualitative qui adapte la méthode ethnographique à l'étude des cultures et des communautés qui émergent grâce aux communications automatisées ». Aujourd'hui, cette méthode peut être définie comme une technique de recherche marketing qui permet d'analyser en détail les échanges au sein des communautés en ligne dans le but d'en libérer des thèmes principaux pour ensuite orienter précisément des actions reliées à la stratégie marketing d'une marque ou d'une entité. Il est nécessaire de préciser que cette technique analyse seulement la communication écrite entre les membres. Les attitudes physiques et autres informations précises sur l'individu ne sont pas connues.
Netnographie et ethnographie Le mot « netnographie » provient bien évidemment du terme « ethnographie » qui désigne une méthode en science sociale permettant d'étudier des populations déterminées. Les ethnographes intègrent physiquement des communautés ciblées. L'idée de la netnographie est de faire la même chose mais sur les réseaux virtuels en adaptant donc l'approche ethnographique aux nouvelles plateformes d'échanges en ligne. Aujourd'hui, ces deux méthodes se rejoignent au sein d'un même domaine marketing qu'on appelle « l'anthropologie de la consommation » dont le but est d'analyser en détail les comportements des consommateurs en s'intégrant parmi eux. Les deux techniques sont toutefois très
différentes quant à leur difficulté de mise en application. En effet, l'ethnographie présente une certaine complexité lors de sa mise en œuvre car elle nécessite beaucoup de temps, de moyens en termes de ressources humaines et financières. L'agissement nécessaire du chercheur au sein du groupe peut parfois conduire à biaiser les résultats. La netnographie, elle, dispose d'informations publiques et nécessite beaucoup moins de temps et de moyens. L'approche peut également être menée en toute discrétion si besoin, en ne perturbant pas l'ordre établi de la communauté analysée.
La méthode 1.Définition de la problématique Comme lors de n'importe quelle enquête marketing, il est nécessaire de définir une problématique. Cette étape doit se faire en amont de la recherche. En effet, il apparaît évident qu'avant de rechercher quoi que ce soit, il faut savoir à quelle question cette étude va permettre de répondre. 2. Identification et sélection des communautés virtuelles Afin de répondre à la problématique posée, il va falloir trouver une ou des communauté(s) se rapportant au plus près au problème posé. La démarche est facile, grâce aux moteurs de recherche qui permettent de tomber rapidement sur les thèmes concernés. Il existe d'ailleurs de nombreuses plateformes qui rassemblent directement des communautés de blogueurs et qui proposent leurs propres outils de recherche. Par exemple, les blogs axés féminin disposent du site internet « HelloCoton » qui possède son propre annuaire, qui fait son tri en fonction des sujets traités et permet les échanges entre blogueurs et lecteurs.
DOSSIER Le web a fait émerger via ses multiples réseaux sociaux ce qu'on appelle les « communautés virtuelles ». Plus besoin de se déplacer dans des clubs, associations ou autres lieux d'échanges physiques pour communiquer autour de ses passions. Protégés derrière leurs écrans, les internautes peuvent dévoiler tranquillement le fond de leur pensée : féliciter, recommander, ou au contraire critiquer, insulter. Ils y racontent des anecdotes, parlent de leur quotidien et habitudes de consommation. C'est pourquoi ces plateformes sont de réelles mines d'informations pour les marques. Le monde des études a rapidement réalisé les avantages de taille qu'offrent ces communautés. Aujourd'hui, deux approches se distinguent : étudier une communauté existante ou créer la sienne, avec chacune ses avantages. Pour avoir une bonne vue d'ensemble, nous présenterons d'abord la nouvelle technique d'étude que l'on appelle la netnographie et qui consiste à étudier, voire intégrer une communauté online existante. Puis, Sébastien Gradeler, expert des études online et responsable développement chez Eden Insight, nous dira ce qui peut inciter les marques à bâtir leur propre communauté. Nous évoquerons enfin un réseau social un peu spécial, Pinterest, qui offre la possibilité de remonter des insights sous forme d'images.
Une fois les outils choisis, différents critères sont à prendre en compte pour sélectionner la ou les communauté(s) pertinente(s). Dans un premier temps, les échanges doivent être fréquents et sur une longue période, il faut donc constater un nombre important de messages postés. Ensuite, les der nières interactions doivent être récentes et le contenu approprié et fourni. Pensez à bien vérifier que les conversations restent orientées vers le sujet principal et ne divergent pas de manière trop hétérogène. 3. Intégration de la communauté La netnographie requiert d'intégrer la communauté choisie. Pour cela, deux choix sont possibles : soit mener une obser vation discrète, soit une observation participative. Cette dernière demandera le respect de certaines règles éthiques. Ces deux méthodes requièrent une bonne préparation en amont. En effet, pour bien mener ce type d'étude, il est essentiel de bien étudier la communauté avant de commencer son observation participative ou non. Ainsi, il convient de se renseigner sur ses membres, le ton et le type de langage utilisé, ses usages, ses normes et ses orientations. Concernant l'observation discrète, elle consiste, tout simplement, à suivre les échanges sans se présenter ou prendre part à la conversation. A l'inverse, la mise en place d'une observation participative demande à l'enquêteur de se présenter de manière transparente auprès des membres de la communauté qu'il souhaite intégrer et de leur énoncer clairement ses intentions. En effet, pour ce type de procédés, la problématique éthique est souvent soulevée : doit-on dire qui on est ? pouvons-nous se présenter comme un internaute lambda ? En agissant de manière « fourbe/malhonnête », le risque
d'être découvert est beaucoup trop important pour être couru. En effet, tracer une adresse IP est devenu monnaie courante pour bon nombre de blogueurs. Et les conséquences, si cela se produit, peuvent être désastreuses au niveau de sa réputation. 4. Observation et collecte des données Ensuite, concernant la période d'observation, elle doit être faite sur une durée suffisamment longue : on estime qu'il faut un minimum de 5 à 6 mois d'observation pour récolter des données pertinentes. Pour ce qui est de la collecte de données, il est possible de choisir une solution automatisée. En effet, il existe aujourd'hui des logiciels prévus pour vous faciliter la tâche lorsque vous effectuez ce type d'analyse qualitative. 5. Analyse et regroupement des insights consommateurs Que ce soit de façon manuelle ou automatisée, il est nécessaire de dégager les thèmes centraux récurrents. Les solutions informatiques facilitent largement la tâche des professionnels des études, particulièrement lorsqu'ils sont face à des amas de messages en ligne. Ces logiciels permettent de faire du verbatim et de l'analyse de texte à partir de citations, textes et parfois même de pages web. Autant dire qu'ils permettent de gagner en productivité surtout sur des tâches aussi fastidieuses. Lorsque c'est une obser vation participative qui est menée, il est bien évidemment éthique d'exposer l'analyse aux membres de la communauté. Ainsi, leurs commentaires et remarques peuvent être ajoutés aux données de l'étude. 6. Traduire en actions marketing Enfin, les résultats de l'enquête permettront de dégager des axes de communication pour des campagnes marketing futures, ainsi que des objectifs à atteindre pour le développe-
ment de produits et/ou services. L'étude d'une communauté pourra aller jusqu'à la réorientation complète d'une marque et la refonte de ses objectifs et de ses valeurs.
Limites La netnographie présente deux types de limites : Premièrement, comme toute étude qualitative, les chercheurs auront un impact plus ou moins important sur l'analyse des données. Effectivement, de bonnes aptitudes d'empathie et d'observation sont essentielles pour mener à bien ce type d'étude. La seconde est propre à ce mode de collecte online. En effet, entre le choix de la communauté et le manque d'information sur les intonations, les comportements physiques et le profil des membres, il faut tout de même garder du recul quant à l'interprétation exacte des éléments recueillis.
Vers de nouvelles communautés L'explosion du marché des Smartphones et des tablettes promettent de fortes évolutions au sein des communautés. Les échanges vont pouvoir évoluer vers des usages davantage mobiles, en se rapprochant du temps réel et en se multipliant. La netnographie n'en est qu'à ses prémisses et son développement semble s'accélérer, comme le montre toutes les études internationales (cf étude Grit). Certains prolongent la technique en mettant en place leurs propres communautés où cette fois-ci les sujets sont orientés et animés par les praticiens d'étude dans le but de dégager les meilleurs insights consommateurs. Alors créer sa communauté ou analyser celles qui existent ? A vous de choisir.
Survey Magazine - Avril 2014
37
DOSSIER Avis d'expert
Sébastien Gradeler sebastien.gradeler@edeninsight.fr
Communautés d'études en ligne : les raisons d'y aller Le web social change complètement la donne Internet a bouleversé le rapport des consommateurs avec les marques en donnant à ces derniers une part de voix considérable. Ils ne sont que rarement dupes des stratégies de communication aseptisées, qu'ils décodent avec agilité, repérant ça et là contradictions ou ratés. Et dans le même temps, avec une force incroyable et des mots justes, ils peuvent défendre un produit qu'ils aiment avec un niveau d'engagement jusqu'ici jamais vu ! Pouvons-nous continuer à ne nous adresser à eux qu'au travers de questionnaires anonymisés ou de réunions de groupes aux objectifs déjà définis ?
Les études marketing connaissent leur révolution Le monde des études doit se réinventer pour prendre en compte cette réalité : continuité et immédiateté, masse d'information disponible, multi-supports… la voix du consommateur est partout ! D'ailleurs, ce dernier n'attend plus l'arrivée d'un questionnaire de satisfaction pour
38
Survey Magazine - Avril 2014
donner son avis : il aura déjà réagi sur Internet ; son opinion amplifiée par la gigantesque audience du web social. L'approche communautaire permet en ce sens une réponse « études » adaptée à ce constat général, car elle pose d'un côté un cadre maîtrisé et une méthode fiable à l'échange avec le consommateur. Et d'un autre côté, elle décuple son engagement et lui laisse la liberté nécessaire à s'exprimer de manière complète.
optimale et ainsi d'apporter une certaine proximité entre les membres, sans risquer de gripper les espaces de discussion et les mécanismes d'interaction. Concrètement, la communauté permet les applications s u i va n t e s : c o - c o n s t r u i r e u n e nouvelle application, recueillir les attentes et besoins des consommateurs par rapport à ses produits, prétester des supports de communication… et bien plus encore !
Communautés d'études : de quoi parle-t-on ?
Une approche innovante !
Mais avant de développer tout cela, il convient de définir ce qu'est une communauté d'études (ou ce que les anglo-saxons appellent MROC Market Research Online Communities). Si plusieurs approches cohabitent, nous privilégions la suivante : « 30 à 300 personnes, choisies et engagées, rassemblées sur une plateforme digitale sécurisée et fermée, animées dans la durée par un Community Manager avec une promesse et au service d'une thématique, d'une marque. » Cette fourchette restreinte permet d'animer des discussions de manière
La promesse, elle est au centre du dispositif : véritable contrat moral conclu entre le consommateur, l'annonceur et l'institut elle donne le cap de manière transparente de ce qui va être construit ensemble par cette union. Ainsi, le consommateur est placé au centre du dispositif d'études. En véritable ambassadeur, il coconstruit la stratégie marketing de la marque. L'approche est innovante car : Elle propose un tempo adapté aux réalités du marché (+ de réactivité et +souplesse), Elle ne limite pas une problématique à des seuls postulats de départ, avec à la clé des « pépites » à exploiter pour l'entreprise et des réponses à des questions qu'elle ne s'est pas posées, Elle favorise un engagement inégalé des consommateurs en laissant le temps nécessaire à la découver te et à l'approche ludique, Elle fait tomber les frontières études / communication : recrutement et ciblage simplifiés, animation en mode community management, valorisation et fidélisation client, Elle rapproche les directions en inter ne car sa mobilisation continue intéresse d'autres acteurs de l'entreprise.
DOSSIER Mettre en place sa communauté d'études, c'est ainsi accepter d'ouvrir ses portes, de parler de tout et ce, en toute transparence.
Les 10 raisons de monter sa communauté d'études en ligne 1.Pour des réponses à des questions que vous ne vous êtes pas posées. Plus souple qu'un dispositif d'études t r a d i t i o n n e l , l a C o m mu n a u t é d'Etudes laisse une liberté de parole totale à ses membres. De cette confiance et ces échanges ressortent très souvent des « pépites » pour l'entreprise. 2. Pour traiter une problématique dans la durée. La communauté d'Etudes permet de capter LA réaction spontanée, au bon moment, et mesurer son évolution dans le temps, au fil de l'expérience vécue par vos clients. 3. Pour profiter d'un engagement sans pareil des participants. Être considéré comme un ambassadeur (et non plus un simple répondant !) et se retrouver entre pairs au sein d'une communauté d'Etudes décuple la participation de chaque membre : ils se sentent investis d'une mission importante ! 4. Pour plus de réactivité dans vos décisions. Vivante en continu, la communauté d'Etudes s'anime intensivement lors de vos événements (lancements de produits, campagnes). Ce dispositif actionnable et souple vous permet ainsi des réponses au plus près de vos décisions.
fauteuil dédié pour le client. C'est avec lui que vous construisez votre stratégie de demain, pour des produits et services qui lui ressemblent. 8. Pour allier la dynamique de groupe et l'expression individuelle. P l u s b e s o i n d e ch o i s i r e n t r e démarche collective ou individuelle... ni d'ailleurs entre quali et quanti ! La communauté d'Etudes permet des actions individuelles entre l'animateur et chaque membre, sans oublier les interactions riches entre participants. Tout ceci pour un niveau de recueil optimal ! 9. Pour une approche évolutive qui s'adapte au fil de l'eau Difficile de changer un questionnaire quanti qui vient d'être envoyé ou d'adapter un guide d'animation en cours de focus group. La communauté d'Etudes vit dans la durée, et nous donne les moyens de déceler des points d'ajustement ou des thématiques à traiter en priorité. Et ainsi, de faire évoluer le cours de l'animation en temps réel.
10. Pour une mise en situation authentique de vos clients Avec la communauté d'Etudes, nous passons de l'approche théorique à l'usage authentique d'un produit ou service. Chaque membre nous livre une tranche de vie, avec beaucoup de naturel et sans les contraintes habituelles des approches traditionnelles.
La n du modèle traditionnel ? Alors, si l'on prend un raccourci facile, à quoi sert un institut d'études aujourd'hui ? Avec son indépendance, sa rigueur et son expertise pointue de l'échantillonnage, des techniques statistiques, des sciences sociales, son influence n'est pourtant pas prête de disparaître ! Il faut penser à la complémentarité des dispositifs : si une communauté d'études ne viendra jamais remplacer un baromètre de satisfaction (qui nécessite une mesure représentative de l'opinion), celle-ci viendra compléter le dispositif en apportant des insights pertinents en termes d'attentes et de besoins.
5. Pour rassembler vos services en interne. La communauté d'Etudes rassemble vos directions ! Marketing, études, digital, commercial : tous unis autour de vos clients ! 6. Pour une vision à long terme. Profiter d'un dispositif continu, c'est être constamment en situation de veille et améliorer au jour le jour la connaissance de vos clients… pour mieux anticiper leurs attentes ! 7. Pour impliquer enfin vos clients ! La communauté d'Etudes, c'est un conseil d'administration avec un
Vous voulez aller plus loin dans la découverte des communautés d'études ? Téléchargez le livret pratique « 10 raisons de mettre en place sa communauté » et découvrez bien d'autres choses sur le site www.edeninsight.fr. Survey Magazine - Avril 2014
39
DOSSIER Valentine Girault-Matz vgirault-matz@ethnosoft.com
Réseaux sociaux
Pinterest, étudier sa communauté par l'image Lancé en 2010 par les américains Paul Sciarra, Evan Sharp et Ben Silbermann, Pinterest est un réseau social visuel qui prend de l'ampleur en France. Il incarne une version virtuelle du tableau de liège où l'utilisateur y punaise des photos et des vidéos. Le mot nous vient de l'anglais : association de “pin” (épingler) et de “interest” (intérêt). Tout comme les autres réseaux s o c i a u x ( Fa c e b o o k , Tw i t t e r, Instagram) il est devenu un terrain d'études. Mais dans ce cas précis, ce sont les images qui permettent de déceler de nombreux insights, et c'est ce que nous allons détailler dans cet article.
Un essor fulgurant
L'étude des réseaux sociaux ne se limite pas à l'analyse des échanges de messages textuels entre les différents membres. Le développement de nouveaux concepts d'espaces où les participants émettent des insights sous d'autres formes, invite à trouver de nouvelles méthodologies, qui peuvent se révéler riches en contenu et en remontées. Pinterest est l'exemple même du réseau social innovant, qui peut apporter des insights originaux, basés sur les images.
Pinterest a connu une croissance explosive de 4377% (Social Media examiner) en 2012. Elue meilleure nouvelle start-up en 2011 aux Crunchies Awards, Pinterest se range désormais parmi les géants des médias sociaux comme Facebook et Twitter. Le réseau réunit aujourd'hui 70 millions d'utilisateurs dans le monde et se positionne comme la deuxième meilleure source de trafic après Google et loin devant Twitter, LinkedIn, YouTube et Google Plus. (Données Shareaholic, septembredécembre 2013) Très populaire aux Etats-Unis, Pinterest gagne du terrain en France. On dénombrait 550 000 adeptes en juillet 2013. Valorisé à 3,8 milliards de dollars, Pinterest entend se renforcer à l'international et a récemment « épinglé » la France sur son tableau de bord en y installant ses bureaux.
Un réseau social ultra-visuel Depuis quelque temps, les réseaux sociaux sont devenus le royaume de
40
Survey Magazine - Avril 2014
l'image qui s'échange et se publie de préférence aux longs textes. C'est donc tout naturellement que les réseaux 100% visuels comme Instagram et Pinterest connaissent un grand succès, avec des images qui semblent susciter beaucoup plus d'« engagement » et augmenter de 69% la viralité des messages. Pinterest est un réseau simple et intuitif. L'utilisateur peut épingler tout contenu en provenance du web, ou de ses données personnelles, qu'il peut ensuite classer par catégories et selon ses centres d'intérêt. Il gère son contenu de manière intelligente et y affiche ses coups de cœur et ses trouvailles. Comme pour les autres réseaux sociaux, l'interaction entre les membres est forte : il est possible de commenter la photo que l'on a accrochée à son tableau, mais également de « re-piner » les photos des autres utilisateurs, de les « liker », ou de suivre l'activité d'autres utilisateurs. Peu importe le nombre de « re-pin » qu'une image a subi, elle conserve le lien url source. Beaucoup de sites et blogs ont aujourd'hui intégré la touche « Pin it » qui permet ainsi de relayer le contenu directement sur son tableau de bord. Il est également possible pour l'utilisateur de lier son compte avec d'autres réseaux sociaux, c'està-dire d'épingler sa photo sur Pinterest et de la partager simultanément sur Facebook. L'impact visuel est alors amplifié.
Le « picture marketing » Une étude réalisée en 2012 par Bizrate Insights a révélé que 70 % des interrogés utilisaient Pinterest pour trouver des idées d'achat, contre 17% pour Facebook. Rapidement, les marques ont donc saisi l'opportunité incroyable que représentait Pinterest, et ont commencé à l'utiliser comme un
DOSSIER partagées et identifier le profil des membres qui interagissent avec ces épingles. En vous centrant sur vos produits, vous pouvez découvrir ceux qui sont les plus appréciés et/ou la partie ou détail qui intéresse le plus le public. Les pinboards des utilisateurs sont riches en informations. Ils indiquent par exemple les catégories dans lesquelles ils ont classé vos photos, et quelles sont les autres photos qui sont également classées dans cette catégorie.
Exemple de page Pinterest centrée sur les lunettes pour femmes espace de publicité gratuit. C'est ce qu'on appelle le « picture marketing », ou dans sa traduction littérale le marketing par l'image. Cette technique consiste à assurer la promotion d'un bien ou d'un service par le biais de photographies postées sur les réseaux sociaux. Sur Pinterest, cette méthode peut se mettre en œuvre comme suit : La mise en scène des produits et services : grâce aux pinboards il est possible de classer les produits et ser vices par thèmes (par exemple pour une enseigne de vêtements : par saison par style ou par créateur). Les entreprises peuvent ajouter des commentaires et des conseils. Pinterest devient une vitrine originale pour la marque. Interagir avec sa communauté en créant des jeux-concours autour des images. Par exemple, proposer de re-piner des photos de la marque en y insérant un jeu de piste, demander à vos followers de partager leurs plus belles photos, leurs envies futures, des idées d'achats. Le social shopping : toutes les photos renvoient vers l'url de votre site, et sont susceptibles de générer des ventes. En partageant le contenu des marques, les utilisateurs font eux–mêmes la publicité. Monoprix a été l'une des premières enseignes à créer sa page sur Pinterest, en 2012. Elle compte aujourd'hui 1940 abonnés. Monoprix
épingle ses coups de cœurs, les nouveautés, des idées, des tendances, les collections de ses créateurs. Beaucoup d'entreprises en France ont créé leur propre communauté sur Pinterest. En plus d'être un outil puissant de marketing, il permet de générer de nombreux insights sur les consommateurs.
« Une image vaut mille mots » L'intérêt de Pinterest pour la recherche marketing saute aux yeux. En partageant du contenu visuel, les utilisateurs fournissent des éléments précieux d'information et d'association de produits et de modèles. Les applications sont multiples. Etudier les envies des consommateurs En effet, beaucoup d'utilisateurs utilisent Pinterest pour exprimer des souhaits. Ils épinglent leurs idées d'achats, de vacances, de projets. Même si ces envies ne seront sûrement pas toutes concrétisées, elles fournissent des informations essentielles sur les désirs de consommation des utilisateurs. Etudier le contenu échangé L'outil Pinterest Web Analytics vous renseigne de manière approfondie sur le nombre d'internautes ayant réépinglé une photo. Il vous renseigne aussi de manière plus globale sur les goûts des membres Pinterest. Vous pouvez étudier les épingles les plus
Tester des campagnes marketing Pinterest est un outil viral incontournable. Il permet de tester directement la notoriété ou l'appréciation de certains produits en testant le partage d'image. On peut mesurer les réactions et les commentaires sur un produit qui n'a pas encore été commercialisé. Analyser les données qualitatives Les commentaires, les descriptions, les noms des pinboards sont autant de données qualitatives utiles. Les utilisateurs sont créatifs et constituent des sources d'inspiration pour vos mot-clés, votre contenu web et votre stratégie marketing. Bien sûr et comme sur tout réseau social, vous pouvez aller regarder du côté de vos concurrents pour vous inspirer des stratégies les plus réussies. Quels axes de communication utilisent-ils ? Quels sont leurs nouveaux produits ?
Un échantillon limité Pinterest est un réseau en expansion, mais il reste pour le moment largement dominé par la gente féminine. Il n'est donc, pour le moment, pas assez représentatif. Le réseau par ailleurs dénombre cer tes 70 millions d'utilisateurs mais 70 % d'entre eux sont localisés aux Etats-Unis. Enfin, certains secteurs sont surreprésentés : tourisme, décoration, mode et cuisine. Pinterest est donc un réseau social très intéressant pour la recherche marketing, dont le développement rapide va certainement effacer les défauts ci-dessus et mettre à disposition des entreprises des cibles étendues et riches en insigths.
Survey Magazine - Avril 2014
41
3 DOSSIER
La gamication des enquêtes Gamification est un mot très récent qui désigne une pratique finalement très ancienne. Il s'agit d'introduire des notions liées aux jeux dans un cadre non ludique. Cette approche représente aujourd'hui, selon une étude réalisée par le Cabinet M2 Research, 242 millions de dollars dans le monde et devrait atteindre 2,8 milliards de dollars en 2016 ! Cette pratique tend à se développer dans l'univers des études marketing, pour plusieurs raisons que nous allons détailler dans cet article. Mais la gamification est également présente dans tous les autres domaines du marketing et de la relation des marques avec leurs consommateurs. Nous l'avons tous déjà expérimentée, souvent sans le savoir au travers d'applications web, jeux concours, publicités et autres enquêtes ludifiées que nous évoquerons plus loin. Nous la rencontrons d'ailleurs très souvent sur la page de Google, avec une animation adaptée au calendrier. Cette tendance à l'introduction du jeu dans l'univers du consommateur remonte déjà au début des années 80, où les premiers programmes de fidélité accompagnés de récompenses ont vu le jour, intégrant généralement des mécanismes de jeu et de gratification, en fonction des volumes ou habitudes de consommation. Néanmoins, c'est grâce notamment au web, aux réseaux sociaux et aux smartphones que le phénomène a véritablement pris son essor à tel point que les spécialistes considèrent qu'il pourrait bien devenir le premier outil de marketing relationnel. Le concept de gamification fait aujourd'hui l'objet de g randes réunions professionnelles aux EtatsUnis comme le « Gamification Summit » dont la première édition s'est tenue en 2011. Pour Gabe
42
Survey Magazine - Avril 2014
Valentine Girault-Matz vgirault-matz@ethnosoft.com
Zichermann, organisateur de ces événements « les 5 dernières années ont été dominées par les réseaux sociaux, les 5 prochaines le seront par la Gamification ». Rien que ça ! Notons que le prochain Gamification Summit aura lieu les 10 et 13 juin 2014 à San Francisco. Mais pourquoi cet engouement pour ce qui se résume finalement à peu de choses. En quoi le jeu peut-il apporter des avantages aux entreprises qui s'en servent et plus particulièrement aux professionnels des études dans leur pratique de la recherche marketing ?
Utiliser le jeu comme insight Définissons un peu mieux ce terme de Gamification. Il s'agit bien sûr d'un anglicisme que les puristes traduiraient par « Ludification » même si le premier terme reste le plus usité, même en français. Ce terme désigne l'application des concepts et mécanismes des jeux, notamment des jeux vidéo (généralement des points, niveaux, challenges, badges, classements, etc.) dans des contextes non ludiques, afin d'augmenter l'implication des participants et faciliter la résolution de problèmes. La mécanique des jeux, selon Amy Jo Kim, figure emblématique de la Gamification, est caractérisée par les cinq éléments suivants : Collectionner, Gagner des points, Intégrer un mécanisme de feedback, Favoriser les échanges entre joueurs, Permettre la personnalisation du service. Michel Pélegrin, DG en France du spécialiste américain des panels et
études en ligne GMI, nous précise : « Transformer un exercice en jeu doit réunir trois conditions : une quête, la demande de réaliser quelque chose et une récompense. La récompense peut être purement symbolique voire psychologique ou se traduire par l'acquisition d'un gain ». Le recours à ce procédé vise à pallier une crise de l'engagement que l'on rencontre de manière croissante dans tous les domaines de l'activité humaine. La Génération Y, également appelée « Digital Native » est en première ligne. Les Digital Natives sont plus difficiles à motiver et sont considérés comme insatisfaits et paresseux, à tort ou à raison. Cette tendance générale au désengagement ou à la non-implication se manifeste jusque dans la vie démocratique de la nation. En effet, les chiffres de participation électorale connaissent des baisses consécutives d'élection en élection, depuis le début de la Vème République, traduisant la désaffectation croissante des français pour la vie politique. Selon une étude de l'Insee, en 2012, un français sur cinq en âge de voter et résidant en France n'a pas du tout participé aux scrutins nationaux. 12 % des inscrits ne sont pas allés voter, soit deux points de plus que 2007. Dans le domaine des études, on constate également une érosion continue et assez alarmante des taux de réponse aux enquêtes. Sollicités de toutes parts, les consommateurs ont de moins en moins envie de répondre aux questionnaires et témoignent d'une certaine crainte vis-à-vis des sollicitations extérieures lors des enquêtes téléphoniques par exemple. La qualité des réponses en est donc directement affectée. Dans ce contexte morose, les professionnels du marketing ont trouvé dans
DOSSIER Il faut jouer pour devenir sérieux disait Aristote. Cette maxime se vérifie de plus en plus dans le domaine du marketing en général et des enquêtes en particulier. Les professionnels constatent de manière croissante qu'en introduisant les mécanismes des jeux dans leurs questionnaires, ils arrivent à mieux capter l'attention et l'engagement des répondants. Il faut dire qu'avec la génération Y, tout un pan de la population active est aujourd'hui composé de zappeurs pressés et peu attentifs. Le jeu est également un exutoire en temps de crise qui attire et intéresse.
le concept de Gamification un début de solution. En effet, si, dans le monde, nous consacrons 3 milliards d'heures par semaine à jouer en ligne, pourquoi ne pas s'inspirer de cette activité en injectant ses ingrédients gagnants dans l'univers du marketing ? L'idée d'introduire des aspects ludiques et « fun », associés à un système de récompense et de gratification semble donc séduisant et apte à apporter une différenciation dans un univers congestionné où pullulent des offres diverses et variées et où l'attention du consommateur est sans cesse divertie. Aux Etats-Unis, ce procédé envahit tous les secteurs et est désormais considéré comme un véritable levier de marketing. Amy Jo Kim affirme à juste titre que « Nous sommes entrés dans une ère où le jeu est partout, où nous sommes tous des joueurs ». Beaucoup d'entreprises l'ont déjà intégré dans leur stratégie de communication et espèrent établir ainsi une relation renouvelée entre la marque et le consommateur. En France, certaines sociétés comme Easyjet par exemple ont lancé des initiatives remarquées dans le domaine du marketing gamifié. Ainsi, pour célébrer ses dix ans d'installation à l'aéroport de Toulouse-Blagnac, le transporteur britannique a organisé un jeu de société à taille humaine (sur le principe du légendaire « Qui estce ? »). Les voyageurs devaient deviner le 10 millionième passager caché parmi les 24 figurants pour tenter de gagner des billets d'avion. Le jeu a été prolongé sur Internet pour que le plus grand nombre puisse y participer. Certains instituts se sont également lancés. Ainsi, Ipsos a développé le jeu « Ipsos I-say Poll Predictor ». Après chacun des sondages, le répondant peut tenter de deviner la proportion de personnes ayant répondu favora-
blement à une question donnée (ce qui en soi est une information marketing intéressante pour l'analyse). A la clef, des cadeaux à gagner ! Plus généralement, selon le rapport GRIT 2014, 16 % des 2229 entreprises interrogées dans le monde utilisaient la Gamification et 38% envisageaient de le faire.
Philosophie de la Gamification « Le jeu contribue au flow », c'est l'idée avancée par Jane McGonigal, conceptrice de jeux vidéo dans son livre « Re a l i t y i s b r o ke n » . L e fl ow, littéralement flux, issu de la psychologie positive, désigne un état de psychologie optimal, c'est-à-dire un état de concentration intense. Jane McGonigal va beaucoup plus loin et nous explique en quoi les jeux nous rendent meilleurs et plus performants (conférence TED). Elle avance quatre points essentiels : Un optimisme urgent : la volonté d'agir très rapidement face à des obstacles, associée à la certitude de pouvoir réussir. Les joueurs croient toujours qu'une victoire est possible et que cela vaut le coup d'essayer. La capacité à construire un tissu social très dense. L'augmentation de la productivité des joueurs : les objectifs sont clairement affichés et les étapes pour s'y rendre sont concrètes. Les joueurs sont prêts à travailler dur tout le temps, si on leur confie la bonne mission. Le sens de l'aventure : les joueurs aiment se voir attribuer des missions motivantes. Les entreprises ont compris q u ' exp l o i ter l a p réd i s p o s i ti o n humaine au jeu est un véritable levier d'engagement.
Le comportement des joueurs a, par ailleurs, fait l'objet d'études scientifiques. En jouant à un jeu vidéo, l'être humain libère de la dopamine dans le cer veau, un neurotransmetteur à l'origine de la sensation de plaisir. La dopamine va donc déclencher des pulsions de satisfaction : « C'est en ce sens que les jeux ont un réel pouvoir d'influencer le comportement du consommateur » déclare Gabe Zichermann. Les récompenses, les points, les challenges participent à la sécrétion de cette molécule. Gamifier une enquête est donc un véritable outil pour impliquer émotionnellement et motiver le répondant. Cela constitue une opportunité incroyable de pouvoir capter l'attention du répondant et de l'inciter à répondre. « Il faut comprendre que les sondés seront beaucoup plus impliqués s'il y a un objectif clair et ludique » explique Jon Puleston, Vice-Président de GMI. Mais pour créer cet « engagement » encore faut-il savoir appliquer la bonne méthode !
La mise en œuvre de la Gamification « La Gamification revêt beaucoup de champs d'application » nous explique Michel Pélegrin. En effet, il est possible de jouer sur un grand nombre de variables pour apporter un aspect ludique au questionnaire, tant au niveau de la formulation des questions que dans le concept du jeu en luimême. Les questions et le pouvoir des jeux de mots On peut jouer sur le style des questions, personnaliser la question, jouer sur l'émotion pour atteindre le
Survey Magazine - Avril 2014
43
DOSSIER répondant. Une question comme « Quel est votre repas préféré ? » devient « Quel serait votre dernier repas si vous deviez mourir demain ? » Contextualiser et scénariser permet également de créer un environnement émotionnel adéquat pour que le répondant puisse se mettre en situation et s'identifier beaucoup plus rapidement à la question posée. La gratification L'instauration d'un système de récompenses symboliques qui peut consister en un classement, des trophées, un système de points ou un gain réel (un produit gratuit, une réduction sur l'achat d'un produit futur…etc.) peut motiver le répondant et l'inciter à s'impliquer. Challenges et défis Le fait d'ajouter une dimension compétitive en établissement par exemple un classement entre les différents répondants ou en imposant une contrainte de temps s'avère également essentiel : « Imaginez que vous disposez de seulement deux minutes pour… ». On peut faire de la réponse un défi sous la forme d'énigmes ou de devinettes : « Devinez quel est le produit le plus cher ? », l'idée étant de créer un challenge. Enfin, le fait d'imposer des règles et conditions a la faculté de stimuler les répondants : La question « Qu'est-ce que vous aimez ou n'aimez pas dans ce produit ? » devient « Nommer une seule chose que vous changeriez dans ce produit ».
Aspect graphique Il est essentiel de jouer (c'est le cas de le dire) sur l'aspect visuel. Sur le principe du jeu vidéo, la présence d'images et d'illustrations est primordiale pour accompagner le répondant dans ses choix. Le design des questions est également très important pour rendre le procédé plus divertissant et intéressant (Smileys, émoticônes, diversité des formats de questions). Vous trouverez un lien vers un exemple de questionnaire gamifié en fin d'article, qui vous permettra de tester, de manière ludique, vos connaissances sur les dernières tendances dans le monde des études marketing. « Ce qui compte avant tout c'est le concept du jeu, beaucoup plus que l'aspect visuel » nous explique tout de même Michel Pélegrin. Le graphisme accompagne la mise en place du jeu, mais la Gamification ne doit pas être vue comme un procédé de décoration. Pour Jon Puleston « Les images, les couleurs aident à communiquer, elles aident le répondant dans son travail de visualisation. » L'utilisation de la gamification dans les études est encore loin d'être généralisée mais est promise à un bel avenir: « La Gamification va gagner du terrain, c'est inévitable si l'on veut intéresser suffisamment les répondants » conclut Michel Pélegrin.
Les avantages Pour le répondant Comme nous l'avons expliqué, lorsqu'il joue, l'être humain libère un
Extraites du Webinar de Jon Puleston :
44
Survey Magazine - Avril 2014
neurotransmetteur appelé dopamine, à l'origine du plaisir. Pour Gabe Zicher mann, la Gamification introduit donc une nouvelle variable P, pour Plaisir, aux 4 P du mix marketing. (Produit, Prix, Place/distribution, Promotion/communication). Une enquête gamifiée procure davantage de satisfaction, de plaisir et d'amusement pour le répondant qu'une enquête classique. Elle contribue à générer un intérêt supplémentaire pour le répondant. « L'idée est de transformer une étude quelconque voire rébarbative et rebutante en une expérience véritable. » nous explique M. Pélegrin. Pour l'émetteur de l'étude Au-delà d'une implication accrue du répondant, la Gamification permet de fidéliser davantage le client, d'augmenter l'impact du message et la perception positive de la marque. Une enquête gamifiée établit un renouveau dans l'expérience avec le consommateur, et renforce ainsi la relation marque-consommateur, pour l'enrichir davantage. Elle gagne en
DOSSIER visibilité et en viralité par sa différenciation et son aspect ludique. Les sondés sont donc beaucoup plus enclins à recevoir positivement le message et les valeurs associés à la marque. Par l'introduction des mécanismes du jeu, la marque contribue à renvoyer une image « sympathique » auprès du consommateur. La Gamification est donc un véritable atout de fidélisation et de différenciation. Enfin, en augmentant l'intérêt du sondé, nous améliorons non seulement le taux de réponse, mais également la qualité des données. En effet, « Un des plus grands intérêts de la Gamification est de pouvoir mesurer les questions qualitatives » explique Michel Péleg rin. Le répondant se livre davantage, le feedback est beaucoup plus riche car la personne interrogée sort des discours convenus. « Il y a une véritable possibilité d'écoute du client. Si le jeu est réussi, les répondants se confient très sincèrement, les réponses ouvertes sont plus riches et beaucoup plus fournies, et cor respondent davantage à la réalité ». La Gamification est une évolution dans les techniques de recherches classiques. « C'est un procédé qui stimule l'imagination, c'est un véritable vecteur d'innovation » explique Jon Puleston.
Les inconvénients « Les deux freins que nous rencontrons avec ce type d'études sont le temps nécessaire à sa réalisation et la modification des données recueillies » avance Michel Pélegrin. En effet, si ce procédé est un vecteur d'innovation, il nécessite du temps, un réel savoir-faire et un grand investissement. « Au lieu de passer trois jours pour une enquête traditionnelle, on peut consacrer 15 jours
à réaliser une enquête ludique ». Ainsi, le budget, la rapidité de mise en œuvre peuvent arbitrer en défaveur de ce nouveau concept. L'autre frein concerne l'exploitation de ces données. En effet, ces dernières sont recueillies avec un procédé très différent des enquêtes classiques. Les questions ne sont pas formulées de la même manière. Beaucoup de clients s'interrogent quant à la possibilité de comparer ces nouvelles données avec des études antérieures, puisqu'elles ne correspondent pas aux mêmes choses. Si les freins peuvent être outrepassés pour certains clients, il reste néanmoins un risque de taille avec ce type d'enquête. « Basculer dans l'extrême c'est le plus gros risque » explique Michel Pélegrin. « En gamifiant le questionnaire à outrance, on s'éloigne du contenu. Les sondés sont davantage concentrés sur le jeu que sur leurs réponses. C'est artificiellement amusant mais les consommateurs ne retiennent ni la marque, ni le message. C'est alors raté. » Le répondant est focalisé sur sa performance. La quantité supplante alors la qualité. Tom Ewing, Directeur des contenus de Brainjuicer emploie le terme de « Hard gamification » pour décrire ce procédé en opposition à la « Soft gamification ». La « Soft gamification » correspond à l'ensemble des techniques que nous avons développées jusque-là.
Humaniser ses enquêtes marketing La Gamification est une solution intéressante pour pallier l'érosion des taux de réponses dans les enquêtes. Les instituts qui adoptent ce procédé pourraient être bien plus nombreux à l'avenir. Toutefois, il est intéressant de préciser que si tous les instituts
Lectures conseillées Ouvrages disponibles sur www.surveymag.eu
A vous de jouer ! Testez vos s sur les nce ssa nai con dernières tendances dans le monde des études marketing avec notre questionnaire gamifié en flashant ce code :
d'études venaient à introduire des mécanismes du jeu dans leurs enquêtes, les atouts de différenciation et d'innovation s'effaceraient alors. Le consommateur se retrouverait sur-sollicité par une pléthore d ' e n q u ê t e s g a m i fi é e s. To u t e ressource est limitée. Il convient d'en faire bon usage. Finalement, l'enjeu principal des enquêtes marketing réside aujourd'hui dans la capacité à susciter l'intérêt des administrés. Plus que la gamification, il s'agit en réalité de réussir à humaniser davantage les questionnaires. Daniel Bô, directeur de QualiQuanti parle d'expérience culturelle enrichissante : « Les instituts d'études doivent passer des études mécaniques à des études émotionnelles. Ils doivent chercher à susciter l'enthousiasme des interviewés. La première chose est de se mettre à la place de l'interviewé et de trouver des manières de stimuler l'activité cérébrale. » L'institut d'études doit parvenir à intéresser l'administré, susciter des réactions, mobiliser ses émotions, son imagination en créant des enquêtes vivantes, stimulantes et captivantes. La contextualisation des questions (un des aspects de la gamification) participe à cette dynamique. L'enquête est un outil qu'il convient de gérer comme un aspect créatif de communication. N'oublions pas qu'un questionnaire bien construit est un facteur de réussite. Beaucoup d'enquêtes marketing ne tiennent pas compte des règles de bases (cf notre article sur la Qualité dans les études, en début de magazine). C'est déjà ce qu'il faut commencer par faire, avant même de songer à ludifier un questionnaire. Survey Magazine - Avril 2014
45
DOSSIER Daniel BO daniel.bo@qualiquanti.com
Avis d'expert
L'intelligence créative au cœur d'une démarche d'études innovante Appliquée aux études marketing, l'intelligence créative permet la résolution de problèmes des plus simples et courants aux plus complexes et inhabituels. La prise en compte de données non purement rationnelles permet d'obtenir des résultats justes et vivants. De nombreuses recherches récentes réalisées tant par des psychologues que des ethnologues montrent la nécessité d'en finir avec l'opposition systématique entre rationnel et imaginaire. Qu'il n'y ait pas d'opposition entre rationnel et imaginaire ne signifie pas qu'il y a dissolution des deux concepts : le discours rationnel, la rigueur conceptuelle restent des éléments d'analyse nécessaires, mais non suffisants. En effet le propre de l'humain est qu'il ne vit pas que de concepts, de discours, d'idée, de raison démonstrative et de preuves, de syllogismes : on vit et on perçoit aussi avec notre corps physique, nos émotions, etc. Parallèlement, les marques n'existent pas uniquement sur la base d'idées et de concepts mais s'expriment au travers d'un enchaînement complexe de signes, eux-mêmes non univoques et appartenant à différents registres : éléments codés répondant à tous types de codes sémiotiques ; éléments
non codés et difficilement caractérisable, comme l'atmosphère... autant de manifestations disparates qui leur permettent de parler, chez l'homme, au cognitif comme à l'émotionnel et au physiologique, avec des bénéfices sensoriels, symboliques, sociaux etc.
Système 1 et système 2 Daniel Kahneman, psychologue père de l'économie comportementaliste, distingue dans son ouvrage « Les 2 vitesses de la pensée » deux systèmes de décision : Le système 1, en permanence connecté à nos sens, opère automatiquement, évalue intuitivement l'environnement, avec des règles d'approximation et des associations qui lui permettent de prendre des décisions très rapides, sur lesquelles nous n'avons que peu de prise consciente. Le système 2, mobilisé plus ponctuellement, demande de
l'effort, s'occupe des opérations complexes, calcule, formalise le jugement dans un dialogue avec le système 1 (qui a lui plutôt tendance à sauter aux conclusions). Après délibération, il sait alors en verbaliser le résultat. Kahneman montre que deux facteurs conditionnent la voie d'aiguillage du système 1 vers le 2, et l'influence de chacun dans nos décisions : le contexte (environnement physique et attentionnel) et surtout le temps mobilisé pour traiter l'information.
Ethnographic imagination D'autre part, Paul Willis explique, dans son ouvrage « Ethnographic Imagination », que l'opposition entre le rationnel et l'imaginaire n'est plus d'actualité. Les hommes ne cherchent pas seulement à survivre économiquement et matériellement mais aussi à donner un sens, une dimension symbolique (qui fonctionne aussi comme lien social) à leur existence.
« Donnons du sens à vos données » Traitements statistiques et Analyse de vos données (Typologie, scoring, segmentation, analyse bayésienne, Big Data…) Mise à disposition rapide d’un directeur d’études en ressource additionnelle dans les situations de débordement. Traitement de vos questions ouvertes ou de commentaires clients multilingues (150 000 commentaires traités). Audit de méthodologies et de dispositifs Etude. Aide à la constitution de panels dédiés… Valorisation des données déjà présentes dans votre entreprise. Conduite d’Etudes Web. E-réputation…
Contact : Yannick BUSSON
46
Survey Magazine - Avril 2014
YB Consulting
yannick.busson@ybconsulting.fr Plus d’information sur www.ybconsulting.fr
DOSSIER La matière sur laquelle on travaille étant symbolique et vivante, elle demande une démarche qui soit en affinité avec elle. D'où l'importance : d'étudier non seulement les données qualitatives et quantitatives tangibles, mais également tout ce qu'il y a de « sensible » dans la vie humaine. En particulier, il faut analyser, interpréter les expériences de la vie « comme de l'art », ou du moins dans leur dimension culturelle. En effet tous les gestes de la vie quotidienne, y compris la consommation, sont parties prenantes d'une for me de « culture » populaire qui n'a rien à envier à la culture élitiste telle que nous l'entendons habituellement. Nos attitudes ne sont pas amorphes mais participent d'une stylisation de nous mêmes : nous stylisons notre existence, notre mode d'être par nos comportements, notre façon de nous habiller, les gens avec lesquels nous sommes en relation, les lieux que nous fréquentons... Ainsi : 1) De même que l'on regarde chacun des mots et chacun des éléments de ponctuation d'un poème, chaque détail de la vie, dans son insignifiance doit être dument observé, analysé, interprété et reçu en tant qu'élément signifiant ; 2) Il s'agit d'accepter que les choses sont plus complexes que l'apparence ne veut bien le faire croire, et que de multiples interprétations sont possibles. Tout comme un poème, la société ne construit pas son sens de manière directe et rationnelle, les métaphores et les sens indirects ont toute leur place dans la construction de sens et l'interprétation que nous devons faire de la société. L'ethnographie ne doit pas occulter cette dimension. de sortir de la dichotomie entre empirie et théorie pour créer des liens entre les concepts et le désordre du quotidien, et ce grâce à l'imagination. d'aboutir à un étonnement pour pouvoir apporter quelque chose de réellement nouveau. P. Willis appelle à aller sur le terrain en croyant des choses, et en étant prêt à bouleverser ces prénotions, pour élargir le champ des connaissances. de s'autoriser de perpétuelles
mutations : il n'est pas mauvais signe de changer et changer encore et encore des définitions. Les questions posées par le terrain évoluent sans cesse, les réponses doivent donc elles aussi évoluer, c'est au contraire très bon signe d'avoir une théorie qui ne reste pas statique mais connaît une certaine dynamique. Or l'intelligence créative permet de sortir des sentiers de la pure rationalité et des strictes données quantitatives et qualitatives en prenant en compte un champ large de connaissances décloisonnées, en intégrant le sensible et l'expérience, en convoquant l'intuition et l'imagination, en recherchant la surprise, en autorisant des réponses ouvertes, multiples et évolutives. De plus l'intelligence créative permet de façonner des solutions à la fois : originales et même inattendues, capables de créer la surprise et l'enthousiasme et de faire appel aux critères de décisions les moins rationnels mais aussi les plus puissants chez le consommateur ; tout en étant efficaces et pertinentes, faisant sens et répondant aux contraintes posées.
Des résultats inspirants visant à rendre créatif L'intelligence créative est avant tout une méthodologie, une manière de réfléchir et de créer. Appliquée aux études, non seulement elle propose des solutions innovantes aux clients mais les encourage également dans leur propre créativité : Grâce à la proposition de solutions intuitives et vivantes qu'il s'agit de s'approprier par le ressenti autant que par l'intellect ; Grâce à la proposition de solutions non uniquement discursives, capables notamment de “parler” aux agences créatives ; Grâce à la proposition de solutions ouvertes et évolutives qui ne demandent qu'à être adaptées et remaniées aux nouveaux contextes ; Grâce à un accompagnement qui ne se contente pas de livrer une cartographie des problèmes et de simples recommandations pratiques, mais intègre une vision, une dimension projective dans le futur.
Préface de Jean-Marie Dru, chairman TBWA Worldwide Repetto, Ladurée, Nike, Oasis, les marques sont bien plus que des agents économiques : ce sont des agents culturels. Leur pouvoir dépend de leur influence, de leur capacité à saisir, à refléter ou à transformer la culture dans laquelle elles vivent. Cette dimension ne cesse de gagner en importance et s'impose comme un pilier de la création de valeur durable, dans une économie où l'enjeu est de produire du sens. Prolongement de Brand content (2009), ce livre explore le phénomène émergent de la culture de marque ou brand culture. A partir de nombreux cas concrets et de témoignages, il décrit les moyens de libérer le potentiel culturel des marques : identifier les sources et modes d'expressions de la culture ; maîtriser les clés d'une culture de marque forte ; valoriser les résonances culturelles pour renforcer l'attachement des consommateurs ; piloter les marques dans la diversité culturelle d'une économie mondialisée. Le philosophe et sémiologue Raphaël Lellouche y développe une nouvelle théorie de la marque, appliquant les notions d'autocontrainte, de performativité et de médialité à l'univers du marketing.
Ouvrage disponible sur www.surveymag.eu Survey Magazine - Avril 2014
47
4 DOSSIER
Guillaume RAC grac@ethnosoft.com
L'arrivée en force des micro-surveys
Après Google Moteur de recherche, Google Traducteur, Google Régie publicitaire, Google Réseau social et bien d'autres aventures du sympathique géant du web, voici maintenant Google Institut de sondages ! En effet, la société a lancé aux Etats-Unis, en 2012, un nouveau service de sondages en ligne, Google Consumer Surveys, avec un concept innovant que nous allons expliquer. Après l'avoir proposé en plus sur les marchés canadiens et britanniques, le mastodonte annonce la prochaine disponibilité de ce service avant fin 2014 dans un grand nombre de zones géographiques (Europe de l'Ouest, Asie, Amérique du sud) et en 40 langues. De quoi faire frémir le monde des études !
GCS, c'est quoi ? Le procédé que propose Google est vraiment astucieux. Il permet de proposer à un internaute qui souhaite accéder à un contenu (article de presse, vidéo, musique à télécharger...) de répondre à une question. Cette question peut être proposée en fonction du support visité et du profil du visiteur. L'échange que propose Google est triple : L'internaute répond à une question et accède gratuitement au contenu visé, Le site est rémunéré par Google pour avoir mis à disposition son contenu gratuitement, Google est rémunéré par la société qui a souhaité poser la question. Tout le monde est donc content et le système semble offrir à la fois une simplicité dans son fonctionnement et une efficacité redoutable dans le ciblage des répondants. Le système fonctionne bien sûr sur les navigateurs classiques mais aussi sur les mobiles, ce qui lui donne encore plus de potentiel.
Fonctionnement de GCS Le principe de Google Consumer Surveys est de ne poser qu'une ou, au maximum, deux questions aux sondés. Néanmoins l'enquête peut être aussi longue que vous le désirez mais chaque question sera posée à un internaute différent. Pour Google, cette méthode vise à accroître le taux de réponses et la qualité des données. Pour définir votre campagne GCS, vous devez donc commencer par définir votre question et les réponses associées. Le choix des réponses peut être binaire ou multiple, les sondés peuvent également assigner une note, choisir une image, ou saisir un texte court. Dans un deuxième temps, sélectionnez votre cible, grâce aux vastes données que Google a en sa possession. Vous avez la possibilité de cibler vos utilisateurs géographiquement, par âge et par genre. Le service propose également de cibler certaines communautés. Vous pouvez ainsi choisir les internautes qui possèdent déjà votre produit. C'est alors l'objet de la première question du sondage. Google offre ainsi un panel facilement accessible et se targue de pouvoir établir des échantillons représentatifs. Les données sont ensuite recueillies dans l'interface de 48
Survey Magazine - Avril 2014
Google, où l'entreprise pourra ainsi traiter les données, les filtrer et les exporter.
Le « coût par réponse » Le programme GCS propose aux sites d'information de remplacer leur paywall (cette limitation qui rend payante la lecture d'autres articles, après que le lecteur en ait lu un certain nombre) par ces courts sondages. Une fois renseignés, ils permettent d'accéder à du contenu dit « premium » et inédit, comme des news ou des vidéos. Les marques doivent payer entre 0,10 $ et 0,50 $ par réponse. L'hébergeur du sondage perçoit environ 0,05 $ par réponse. Le principe fonctionne donc de la même manière que le coût par clic pour les campagnes Google Adwords. Google présente ce prix comme bas et très attractif. Fort de sa connaissance quasi-omnisciente des usagers du web, Google se positionne donc ici aussi comme un intermédiaire privilégié entre les marques, désireuses d'insights consommateur, les sites internet qui souhaitent monétiser les milliers de visites quotidiennes, et les utilisateurs, à la recherche de contenu inédit.
Un outil en réalité limité Devons-nous craindre pour l'avenir des instituts d'études ? Pour l'instant, l'impact dans les pays où Google Consumer Surveys est déjà opérationnel n'a pas été catastrophique. Rassurons-nous un peu, en tout cas, en mettant en avant les défauts évidents du système. Des enquêtes trop simplistes
Une enquête d'une ou deux questions n'en est pas vraiment une. Certes, l'idée est ici de collecter des insights nombreux et répartis plutôt que des analyses ciblées et en profondeur. Imaginez qu'on ne pourra même pas croiser les données d'une même enquête mais qu'il faudra analyser individuellement chaque question. Google semble envisager d'étendre rapidement le système à un plus grand nombre de questions, sans que la promesse ne soit claire. Mais le concept d'échange proposé à l'internaute risque de ne pas passer si l'effort demandé à ce dernier (répondre à une longue enquête qui ne le concerne pas forcément) est trop important. Le risque, dans ce cas, est de recueillir des réponses cochées au hasard, juste pour accéder au contenu demandé.
DOSSIER Le géant du web nous a habitué à proposer des concepts originaux et novateurs. Il vient de lancer un tout nouveau service : une plateforme d'études marketing en ligne. Cet outil qui répond à un besoin d'immédiateté semble être une innovation de rupture qui peut menacer l'univers classique des études marketing. Faisons le point pour y voir clair.
Un coût en réalité élevé
0,10 centimes par réponse, ça ne semble pas cher en apparence. Mais en réalité, ce prix concerne les questions posées à tout le monde, sans critères de ciblage. En ciblant un peu sur l'âge, le sexe et la zone géographique, on grimpe rapidement à 5 fois plus. Une enquête de 50 questions (réparties) sur un échantillon de 500 individus coûte dans cette hypothèse 12.500$ ! Ciblage manquant de précision
Les données générées par Google pour déterminer la cible présentent des limites. En effet, les informations sociodémographiques, comme l'âge et le sexe, sont en réalité déduites des données que Google a en sa possession. Elles sont extrapolées en fonction de l'historique de navigation de l'utilisateur sur le réseau Google Display Network. Elles ne sont donc pas systématiquement fiables. De plus, un ciblage trop précis n'est pas permis. Si nous voulons cibler sur deux critères spécifiques, alors ce n'est pas possible. Par exemple, il nous est impossible d'administrer nos questions à nos consommateurs détenteurs de notre dernier produit et également parents de deux enfants. En effet, comme nous l'avons expliqué, le questionnaire est limité à deux questions. Le ciblage doit donc être le plus simple possible. Des données biaisées
Ces sondages peuvent s'afficher sur des sites n'ayant absolument aucun rapport avec le sujet de l'enquête, il n'est
donc pas garanti de réussir à « engager » le répondant. Celuici peut être tenté de répondre à l'enquête dans le seul but d'atteindre le contenu dit « premium ». De plus, est-on vraiment sûrs que ce dispositif va être accepté et bien reçu de la part des internautes ciblés ? En effet, Google a été récemment condamné par la CNIL pour sa politique de confidentialité des données personnelles. Les internautes sont de plus en plus sensibles sur la protection de ces données. L'aspect mercantile de la démarche peut également réfréner l'utilisateur, voire l'orienter vers un comportement « désinvolte » et par conséquent générer des réponses fausses. Google Consumer Surveys n'a donc pas, pour l'instant encore, vocation à remplacer les instituts d'études. Plutôt qu'un concurrent il peut être vu comme un outil complémentaire pour la réalisation d'enquêtes très simples. En revanche, avec la puissance et l'intelligence qu'on lui connaît, il y a fort à parier que le géant du web saura minimiser les défauts de son système et en maximiser les atouts. Wait and see!
Depuis 10 ans, spécialiste des études et conseils marketing dans le domaine de la santé Etudes Ad ’hoc Quali et Quanti 100% santé, France et Europe Une expertise des études via Internet avec un réseau de plus de 14 000 professionnels de santé Des valeurs fortes : Implication - Passion - Fiabilité Contact : Nicolas OUVRY - 04.73.73.36.63 - ouvry@pascaleo.com Survey Magazine - Avril 2014
49
5 DOSSIER
Autres techniques
Eye Tracking
L'Eye Tracking aussi appelé oculométrie, permet de mesurer le mouvement des yeux. Il permet d'identifier le parcours visuel du consommateur en mettant en lumière ce qu'il voit et ce qu'il ne regarde pas. Dans un monde digital et offline, son intérêt est double : - Du coté des interfaces digitales (sites web, applications mobiles), l'Eye Tracking est particulièrement intéressant puisqu'il permet de mesurer l'ergonomie en déterminant où le regard du consommateur se pose sur l'interface. Ainsi pour un site e-commerce, les données collectées peuvent permettre de revoir la disposition des produits ou des offres spéciales. - Du côté des interfaces off-line (publicité, affichage, packaging), les services marketing disposeront d'informations essentielles pour choisir le placement du logo, de l'accroche ou de l'image. Techniquement, L'Eye Tracking fait appel à ce que l'on appelle un EyeTracker qui peut prendre la forme d'un écran ou d'une paire de lunettes. Dans tous les cas, il dispose de diodes diffusant de la lumière infrarouge et d'une caméra. Cette dernière filme la réflexion de la lumière sur les pupilles de l'utilisateur. On en ressort ensuite différentes données sous forme visuelle pour mettre en évidence le parcours que suit le regard et identifier les temps ainsi que les points de fixation. C'est ainsi que des études sur le web ont apporté beaucoup d'informations sur la manière qu'ont les internautes d'appréhender un site, en montrant notamment qu'ils lisent plus en diagonale sur le web que sur papier et que les titres sont 2,5 fois plus regardés que les photos au premier coup d'œil. Avec l'utilisation massive du mobile, il nous reste encore beaucoup de données à collecter grâce à l'Eye Tracking.
In-store Intercepts La méthode « In-store Intercepts » permet d'interroger vos clients directement dans leur environnement d'achat. Vous pouvez ainsi obtenir leurs avis à chaud avant, pendant et après leurs courses. On ne se limite plus à l'étude du parcours d'achat. En effet, ici, on va chercher à en savoir plus sur leur ressenti et leurs émotions. Les questions qualitatives seront donc privilégiées. Les professionnels des études peuvent ensuite facilement étudier grâce aux logiciels de traitement de données qualitatives comme celui que propose Soft Concept et qui vous permet d'analyser facilement et précisément le contenu de vos réponses.
Réalité augmentée Si je vous dis Google Glasses, ça vous parle ? C'est pourtant LA grande nouveauté Google qui fait déjà parler d'elle avant même d'être en rayon ! Et difficile d'y échapper tant on les retrouve à toutes les occasions : en test chez les geeks de San Francisco ou encore sur le nez des mannequins aux Fashions Week. Mais quel intérêt pour les études marketing ? La technologie utilisée est la Réalité Augmentée qui permet d'incruster des objets virtuels dans un décor réel. Non limitée aux Google Glasses, il suffit de disposer d'un smartphone, d'une tablette ou même d'une webcam pour en profiter. Pour les études marketing, c'est un nouvel outil qui va améliorer l'expérience de vos interviewés. Vous pourrez créer ou recréer un environnement autour d'eux et proposer des activités ludiques durant l'enquête. Revenons aux Google Glasses : imaginez votre consommateur, lunettes Google sur le nez, qui se promène dans un supermarché. Là, il croise votre produit, vous pourrez saisir directement l'occasion pour lui demander en temps réel s'il aime votre nouveau packaging. Fabuleux n'est-ce pas ? L'avenir proche nous dira si le rêve deviendra réalité puisque la sortie des Google Glasses est annoncée cette année !
50
Survey Magazine - Avril 2014
DOSSIER
en développement Webcam based interviews Suite à l'essor des outils de Visio tels que Skype, iChat ou encore Facetime, des entretiens par webcam ont commencé à se développer : en individuel, en mini-groupes ou encore en focus groups. Ces nouveaux usages profitent des innovations digitales alliées aux méthodologies classiques. En effet, la qualité du face à face est préservée, les interviewés restent engagés, spontanés et affichent leurs émotions. Mais, grâce au digital, le recrutement s'élargit, on peut s'adresser à des cibles géographiquement éloignées ou que l'on n'aurait jamais atteint autrement. Aussi, on profite d'économies de temps et de budgets. De plus, l'utilisation de la webcam ouvre une porte sur l'univers privé du consommateur (lieu de vie…) et les sessions peuvent être plus facilement enregistrées. Notons que le client de l'institut d'études qui mène l'enquête peut ainsi participer plus aisément aux séances. Cette méthode utilisant les nouveaux moyens de communication a donc de beaux jours devant elle.
Biometric Research Notre dernier numéro y consacrait un article. Le Neuromarketing se confirme comme l'une des technologies d'études émergentes les plus marquantes. Depuis plus de 10 ans, cette technique tente d'aller plus loin dans l'exploration des motivations profondes des consommateurs. Pour chercher ces informations, elle passe directement par le cerveau grâce à des IRM. C'est ainsi par exemple que des experts ont constaté qu'un consommateur de Coca Cola active une zone de son cerveau bien spécifique au moment où il voit la bouteille avant de la boire. On parlait à l'époque d'estime de soi pour expliquer l'activité de cette zone préfrontale. Interroger le cerveau plutôt que l'individu directement permet d'accéder à des informations directes et non transformées par la parole. Alors, ce sont surtout les grandes firmes américaines qui s'y intéressent de plus près et mènent diverses expériences. Mais ces études restent complexes et coûteuses à mettre en pratique. Ce qui en freinera plus d'un.
Crowdsourcing Google et Wikipédia existent grâce à cette pratique. Le crowdsourcing, expression traduisible en français par « externalisation ouverte », fait appel aux internautes pour créer de la valeur. C'est une forme de collecte de données bien particulière qui peut avoir les mêmes objectifs qu'une étude marketing traditionnelle : connaître les besoins des clients, trouver des pistes stratégiques et/ou marketing, création d'un nouveau produit… Appliqué au marketing, le crowdsourcing donne la parole aux consommateurs lors de la création d'une publicité, le choix d'un logo, slogan ou packaging par exemple. Ce procédé est une forme de marketing collaboratif très utilisé par de grandes marques telles que Coca Cola, IBM, Microsoft, McDonald's ou encore Disney. Ainsi, Disney a proposé aux internautes d'imaginer leur prochaine publicité ou McDonald's de voter pour leur prochain packaging. Lors d'un concours organisé en Allemagne, McDonald's avait d'ailleurs mis à la disposition de ses internautes un outil de configuration d'hamburgers qui avait permis de collecter 1,5 millions de créations. Le succès qui suivit fut à la hauteur des retours. Pas seulement réservé aux consommateurs, cette pratique permet aussi de rassembler les idées de professionnels : salariés, collaborateurs ou encore partenaires.
Double screen Près d'un tiers des internautes français utilisent déjà un deuxième écran (ordinateur, smartphone ou tablette) lorsqu'ils sont devant la télévision. Aujourd'hui, ce sont principalement les ordinateurs portables qui sont favorisés mais les tablettes sont en train de prendre le relais. Il faut d'ailleurs noter qu'il y a eu en 2013 plus de tablettes vendues que de PC. Les programmes TV ont aussitôt sauté le pas et proposent des applications en lien avec le programme diffusé. Ainsi les émissions de télé-crochet (The Voice, La Nouvelle Star) offrent aux téléspectateurs la possibilité de voter, pronostiquer et commenter la prestation en cours de diffusion.
Survey Magazine - Avril 2014
51
DOSSIER
Zoom sur le A l ' è r e n u m é r i q u e, l a q u a n t i t é d'informations collectées, diffusées et stockées équivaut en un jour à ce que l'humanité toute entière avait produit jusqu'au XXème siècle. Ce phénomène porte un nom : le Big Data ! Son volume ahurissant n'est pas sa seule caractéristique, le Big Data se délimite par ce que les experts du domaine appellent les 3V : Volume, Variété et Vitesse. On parle de Volume pour évoquer ces quantités de flux de données qui dépassent les imaginaires les plus fous. Les géants du web comme Google, Twitter ou encore Facebook évoquent des chiffres de plusieurs milliards d'octets échangés sur leurs plateformes chaque jour. Le phénomène prend une toute autre tournure lorsqu'on parle de gestion de ces données. Aujourd'hui, des solutions voient le jour pour permettre aux sociétés de les stocker : mission réussie pour l'instant puisque grâce à de nouvelles technologies, on y arrive. Mais que va-t-on en faire ? Voici une des problématiques majeures du phénomène Big Data. La Variété des données ne permet pas aux systèmes informatiques actuels de les ranger naturellement dans leurs bases. En effet, ces flux d'informations arrivent de tous supports : réseaux sociaux, mobiles, site web ou encore forums et leurs formats sont beaucoup trop multiples pour avoir été prévus en amont dans les architectures informati-
52
Survey Magazine - Avril 2014
ques. Mais quelles solutions adopter pour structurer l'ensemble de ces données ? Et enfin la Vitesse qualifie l'importante fréquence à laquelle les données sont remontées au sein des systèmes d'informations. Cette rapidité de plus en plus grande insinue la nécessité d'une réaction ultra rapide pour traiter les données dès leur arrivée. Récemment, le mobile est devenu lui aussi une source sérieuse d'informations qui demande une réactivité de plus en plus précise. Mais comment collecter, traiter, et régir en temps réel ? Les 3V ne suffisent pas à définir le phénomène Big Data puisqu'ils laissent à croire qu'il faut simplement augmenter la capacité des systèmes informatiques actuels pour s'adapter. C'est en fait le modèle tout entier qui doit être revu. Lors de notre dernier numéro, nous évoquions déjà la pensée de Chris Anderson, rédacteur en chef de Wired, qui résume parfaitement la philosophie du concept en prenant l'exemple de Google. Ce dernier, qui traite des flux de données inouïs chaque jour, ne cherche pas à comprendre leur contenu pour les classer, mais effectue uniquement des formules purement mathématiques. Cette démarche est évidemment bien loin de la gestion par la pertinence du contenu à laquelle nous sommes depuis longtemps habitués, c'est pourquoi nos systèmes informatiques sont aujourd'hui à revoir dès leur source.
Ce nouveau SurveyMag y consacre un dossier complet : le digital aide à mieux connaître les consommateurs. Nous assistons à une profonde modification de la recherche marketing. Cette dernière ne se limite plus à poser des questions, elle récolte maintenant des informations via d'autres moyens : web analytiques, données géolocalisées, communautés en ligne, etc. Elle profite donc, elle aussi, de cet afflux de données à double tranchant : d'un côté, la connaissance client accède à des données qu'elle n'aurait jamais pu récupérer autrement mais d'un autre côté, la gestion de ces flux exponentiels apparait des plus complexes. Notons tout de même que les instituts d'études n'auront bientôt plus besoin d'interroger les consommateurs pour disposer des informations voulues. Serait-ce la fin des études marketing telles que nous les connaissons ? Nous pouvons répondre par l'affir mative, ce pendant les professionnels du marketing vont devoir être pro-actifs dès maintenant pour ne pas laisser passer ce tournant décisif pour le secteur.
PROSPECTIVE
Soline Pulicani spulicani@ethnosoft.com
Internet des objets & études marketing Au-delà des ordinateurs et des smartphones, les objets qui nous entourent sont de plus en plus intelligents. Imaginez votre réveil sonner avant l'heure programmée parce qu'il a évalué un risque de bouchons sur votre trajet quotidien ? L'internet des objets n'en est encore qu'à ses prémices, pourtant nous nous surprenons déjà à rêver aux mutations qu'il va engendrer ! Les études prévisionnelles lui assurent un avenir prometteur en estimant à plusieurs milliards le nombre d'objets connectés en service d'ici 2020 ! Cela a de quoi nous donner le tournis et nous rendre impatients à l'idée d'exploiter les tonnes de possibilités qui vont rapidement s'offrir à nous. Et quand on voit la révolution qu'ont provoqué les réseaux sociaux grâce à la multitude de données qui parviennent aux professionnels, on peut imaginer l'aubaine qui s'offrirait à nous si nos produits nous racontaient comment ils sont reçus par nos clients sans même la nécessité de leur demander. Et si le monde des études en ressortait profondément métamorphosé ? Pour comprendre de quelle manière l'internet des objets peut être une source d'opportunités pour les Etudes Marketing, il convient de définir ce concept, de décrire ses modes d'application et d'exposer les apports tangibles que l'on pourrait en attendre.
Qu'est que c'est que l'internet des objets? Parce que c'est une notion complexe qui ne possède pas de définition à proprement parler, les explications varient. Il est possible de définir les objets connectés par leurs aspects techniques, leurs usages ou encore leurs fonctionnalités. Voici la définition qui nous semble la plus complète. Elle est tirée du livre « L'Internet des objets : Quels enjeux pour l'Europe » écrit par Benghozi, Bureau et Massit-Folléa : « Un réseau de réseaux qui permet, via des systèmes d'identification électronique normalisés et unifiés, et des dispositifs mobiles sans fil, d'identifier directement et sans ambiguïté des entités numériques et des objets physiques et ainsi de pouvoir récupérer, stocker, transférer et traiter, sans discontinuité entre les mondes physiques et virtuels, les données s'y rattachant ».
Trois types de dispositifs Même si elle est assez complète, cette définition ne permet pas de saisir parfaitement ce qu'est l'internet des objets. Il faut déjà bien comprendre qu'un objet connecté peut, dès sa conception, disposer de qualités qui lui permettent de communiquer ou bien, acquérir ses fonctionnalités par la suite.
C'est ainsi qu'on a distingué trois types de dispositifs indispensables pour qu'un objet soit connecté : Connexion de l'objet
Un objet connecté a pour fonction première la capacité à communiquer. Le terme M2M, soit « Machine to Machine » est d'ailleurs régulièrement utilisé pour qualifier cette capacité qu'ont les objets connectés à communiquer entre eux. Bien sûr, pour créer une connexion, l'objet doit être composé de différents éléments. En premier lieu, il doit présenter un système d'identification propre afin de pouvoir le reconnaître et ainsi être capable de le différencier d'un autre objet connecté. Pour cela, on peut faire appel à des technologies classiques comme celles du code barre, des étiquettes RFID ou utiliser des moyens plus innovants comme des puces optiques. Ainsi, il sera possible de récupérer les données correspondantes à son utilisation. Ensuite, il doit être équipé de capteurs pour pouvoir saisir les données qui l'entourent dans le but d'amplifier ses fonctionnalités et de le situer dans son environnement. On pourra utiliser, pour cela, un simple thermomètre par exemple ou si nécessaire une nanotechnologie plus complexe. Cela dépendra vraiment du besoin. Et bien entendu, il faudra qu'il soit connecté à l'aide de 3G, 4G, Bluetooth, wifi, technologies NFC, ou carrément à l'aide d'un câble. Récupération des données
La seconde fonctionnalité de l'objet connecté est de partager des données.
Il apparaît donc essentiel qu'il dispose d'outils lui permettant de récupérer les données qu'il contient. Dans un premier temps, il doit disposer d'un réseau pour le transfert des données. Aussi, un outil pour lire son ID est nécessaire pour permettre de le différencier et de le repérer géographiquement par exemple. Enfin, l'objet doit être relié à un dispositif mobile (smartphone, tablette, ou ordinateur). Analyse des données
Bien évidemment, son intérêt final est d'analyser ses données. C'est pourquoi il sera accompagné d'un logiciel mobile d'analyse des données. Et enfin un espace de stockage est aussi indispensable pour conserver les données récoltées (cloud, disque dur…).
Une réalité Il existe déjà un certain nombre d'objets connectés. Principalement orientés santé pour le moment, ils nous laissent pourtant rêveurs quant à leurs possibles adaptations pour la recherche marketing. Faisons un rapide état des lieux de ce qui existe déjà, avec des exemples concrets : Pour rester connecté même la nuit, les consommateurs peuvent acquérir un lit intelligent mis sur le marché par Sleep Number. Sa principale fonction est de surveiller les mouvements des dor meurs afin d'étudier leurs habitudes de sommeil. Par contre, petit bémol : son prix élevé rend le produit peu accessible puisqu'il faut compter environ 8000 dollars pour se procurer un de leurs modèles. Contrôler et étudier les habitudes d'utilisation, c'est ce que propose la
Survey Magazine - Avril 2014
53
PROSPECTIVE brosse à dent connectée de Kolibree. Elle enregistre les mouvements de brossage et transmet ces données, grâce à la technologie Bluetooth, à un smartphone. Cette fois-ci, le produit est plus accessible, pour les consommateurs, avec un prix se situant aux alentours de 100 euros. Son objectif est d'étudier les habitudes pour ensuite prodiguer les meilleurs conseils. Aussi original, Heapsylon a mis en vente sur son site des chaussettes intelligentes pour mesurer et restituer le nombre de pas, la distance parcourue, les calories dépensées et la vitesse de course. Pas encore autonomes, elles fonctionnent à l'aide d'un bracelet de cheville complémentaire. En parlant bracelet connecté, les plus célèbres se portent aux poignets et n'ont pas besoin de chaussettes complémentaires. Le bracelet intelligent est sûrement l'objet connecté qui a fait le plus de bruits ces derniers mois : Nike, Sony, LG, et d'autres se sont attelés à la tâche pour proposer leurs modèles avec pour fonction de suivre l'activité de leurs propriétaires. Munis de capteurs, ils comptent chaque calorie dépensée et les utilisateurs peuvent, après coup, analyser leur activité.
fantasmer avec ses possibilités futuristes : reconnaissance de son propriétaire à distance, conduite automatique, étude des dangers e nv i r o n n a n t s, a l e r t e e n c a s d'endormissement. Les constructeurs vont loin dans leurs promesses ! Le réfrigérateur intelligent est tout aussi innovant : proposition de recettes en fonction des aliments disponibles, approvisionnement autonome des ingrédients manquants, alerte sur les produits proches de la date de péremption, etc. Mettons l'accent sur un accessoire, véritable bijou technologique, qui va pouvoir nous permettre de connecter n'importe lequel de nos objets : Wistiki, ou comment ne plus perdre ses affaires ? Parce que « biper » ses clés, ses lunettes, ou son parapluie en fait rêver plus d'un, Wistiki promet d'en faire une réalité… Il suffit de l'attacher à n'importe quel objet pour ensuite le retrouver grâce à une application installée sur mobile. Ce n'est pas totalement une nouveauté puisque le concept a déjà été pensé auparavant, mais c'est le premier dans tous les cas à utiliser une technologie Bluetooth utilisant très peu d'énergie. Cette petite révolution permettra ainsi de profiter d'une autonomie d'un an.
Un futur ambitieux
Et les études dans tout ça ?
Pas encore mis en vente mais pourtant leurs prototypes font déjà beaucoup parler d'eux : voiture connectée, frigo intelligent, etc. D'après une étude d'Havas Média, 61% des interrogés se disent intéressés par la voiture connectée et 48% par le réfrigérateur. La voiture connectée fait donc déjà
Cela fait plusieurs années déjà que la recherche marketing ne se fait plus uniquement en posant des questions à des personnes. Le phénomène big data en atteste ainsi que le volume des activités non basées sur des questionnaires et qui, selon un rapport de l'Esomar représentaient déjà plus de la moitié du CA du secteur en 2010. Si on considère en plus que, dans
quelques années, tous nos appareils électroniques domestiques deviendront intelligents et connectés il est certain que la recherche marketing aura un tout autre visage que maintenant. En effet, le concept de l'étude en lui-même sera modifié : au lieu d'analyser et prédire le comportement des consommateurs en se basant sur des réponses à un questionnaire, les professionnels du marketing pourront directement collecter les données comportementales et cette fois-ci en déduire d'autres comportements. Mais où récupérer ces données ?
Pour les étudier, il faut déjà savoir où nous trouverons ces données. Aujourd'hui, en constatant les procédés actuellement mis en place ou au moins envisagés, on distingue deux types de récupération de données. En tant que marque, le premier procédé serait de mettre sur le marché son propre produit connecté et ainsi accéder directement à l'ensemble des données de nos clients. Par exemple, la marque Nike récupère l'ensemble des données contenues dans ses bracelets intelligents de cette manière : ses clients doivent se connecter à son site internet où ils chargent l'ensemble de leurs données à l'aide d'une clé USB fournie. En limitant les clients à ce système pour analyser leurs données, ils sont sûrs de les récupérer. Aussi, la solution de partage de données pourra s'effectuer soit par l'inter médiaire des utilisateurs directement qui rendront public leurs analyses, soit directement en BtoB. Bien sûr, nous imaginons les limites
« Le miroir de votre marché » Pour vous aider à disposer d'informa ons fiables et précises, nous me ons à votre disposi on une large pale e d'études ad' hoc tant qualita ves que quan ta ves et réalisons tous vos terrains d'études. Toute la réac vité et l'implica on d'une équipe à taille humaine et d'un réseau na onal d'enquêteurs.
54
Survey Magazine - Avril 2014
30 rue Buffon - 21000 Dijon Tél : 09 67 08 43 54 Contact : bruno.david@symetris.fr www.symetris.fr
PROSPECTIVE de ces systèmes en ce qui concerne la protection de la vie privée par exemple. C'est pourquoi nous y reviendrons plus en détails plus loin dans l'article. Et bien sûr, il y aura certainement des données exclusivement détenues par les organismes publics qui profiteront du marché pour proposer leurs propres outils. Alors, tout comme les données du recensement, ces listes ne seront pas mises à la disposition des organismes privés. Pourquoi récupérer et analyser ces données ?
En exploitant ce nouveau marché, les départements marketing auront en leur possession une véritable mine d'informations. En effet, ces données leur permettront d'identifier de nouvelles niches et même des microsegments grâce à la précision des données récoltées. Ils pourront distinguer des comportements et des besoins bien particuliers. Ainsi, ils connaîtront les habitudes de co n so mma tio n sp écifiques et propres à leurs cibles. De la sorte, la personnalisation de leur offre sera adaptée aux attentes précises des consommateurs et ils pourront procéder à de la publicité extrêmement ciblée. Alors, le taux de conversion n'en sera que plus important. De plus, ils accéderont à des données qu'ils n'auraient jamais obtenues par le biais d'une étude traditionnelle. Pensez aux clients qui ne souhaitent pas participer à vos études par manque de temps, ou manque d'intérêt. Dans ce cas, vous récolterez ces données très rares et atteindrez des clients qui ne vous auraient probablement jamais donné d'indications précises sur leurs
Aussi, le surplus de données posera non seulement le problème de la pertinence mais aussi du tri. C'est bien dans cette situation qu'on rejoint et complète le phénomène Big Data qui nécessite la mise en place de systèmes pointus de gestion des données. comportements, goûts, et besoins. Les instituts d'études passent un temps fou à sélectionner des panels représentant au plus près vos clients. Ici, plus besoin de se casser la tête à sélectionner le meilleur échantillonnage puisque vous aurez accès aux données de la totalité de vos clients. Par contre, vous risquez de vous arracher les cheveux pour sélectionner les plus pertinentes. Mais ces données seront-elles de qualité ?
Autant de données engendrent forcément une problématique de qualité. Au niveau du rythme, les données seront soit récupérées en temps réel, soit dépendantes de l'utilisateur qui aura activé le transfert de données. En effet, si on prend encore comme exemple le bracelet Nike, l'utilisateur doit utiliser une clé usb fournie et se connecter au site de la marque pour transférer ses données. Concernant la désignation des données, pour une meilleure qualité, l'objet devra être rattaché à un profil utilisateur. Ce sera, ici, aux entreprises de prévoir un système d'identification pas seulement limité au produit mais relié à son propriétaire. Le risque de prêts entre utilisateurs pourra cependant fausser les données de manière significative si les échanges sont réguliers.
Les limites à anticiper Oui, ce marché nous amène à imaginer des études incroyables. On se voit déjà accéder aux données les plus rares. Et pourtant, il y a des limites importantes. Voici les plus évidentes d'après la récente étude menée par Havas Média à ce sujet. La protection des données.
Comme évoqué précédemment et régulièrement relayé par les médias, dès qu'on parle du cumul de nombreuses données propres à un individu, la problématique de la vie privée est soulevée. D'ailleurs, l'étude d'Havas Média, préalablement citée, indique que 3 internautes sur 4 de 1549 ans craignent un risque accru pour leur vie privée. Les générations précédentes apparaissent légèrement moins inquiètes à ce propos. Les pouvoirs publics et particulièrement l'Union Européenne planchent actuellement sur la question. On peut donc envisager la mise en place d'un cadre juridique propre au cas des objets connectés d'ici quelques années. D'ici là, les règles existantes comme l'accord de l'utilisateur pour le partage de ses données ou encore la possibilité d'accéder et de modifier ses autorisations et ses informations personnelles à tout moment doivent c o n t i n u e r à ê t r e a p p l i q u é e s. L'important est aussi de comprendre les enjeux non seulement en termes
Survey Magazine - Avril 2014
55
PROSPECTIVE d'abus publicitaires mais aussi en termes de sécurité : piratages, vols… Alors est-ce qu'on risque d'être très limité en termes de récupération et utilisation de ces données ? Est-ce que les utilisateurs vont surprotéger leurs données ? Nous pourrons réellement en juger le moment venu. D'ici là, restons à l'écoute des lois à venir ainsi que des inquiétudes des consommateurs. Des objets trop compliqués à l'utilisation ?
En imaginant, que l'ensemble des objets du quotidien soient concernés, la question de la facilité d'utilisation se pose. En effet, pour accéder à des données de bonnes qualités, les utilisateurs doivent être à l'aise et ainsi pouvoir effectuer une utilisation normale et facile de leurs objets. Toujours selon l'étude d'Havas Média, 47% des internautes interrogés appréhendent une utilisation compliquée des objets connectés. Afin d'anticiper au mieux, il faut donc soutenir une politique d'accompagnement des consommateurs lors de leurs premiers pas avec leurs objets connectés. L'objectif a un double intérêt : une satisfaction d'utilisation à 100% pour répondre à l'ensemble des besoins du consommateur et la récupération de données pertinentes pour la marque et les instituts d'études. Sommes-nous face à un phénomène de gadgétisation ?
Bien sûr, comme à chaque fois qu'un
56
Survey Magazine - Avril 2014
nouvel objet technologique apparaît, le terme gadget est évoqué. On se souvient très bien du smartphone et de la tablette qui ont eu droit à ce qualificatif. On en est loin maintenant et ces appareils ont transformé notre monde. Les internautes interrogés par Havas Média le pensent à 69% : « les objets connectés ne seront que des gadgets ». Bien sûr, des gadgets auraient un impact négatif sur les données récoltées puisqu'elles ne profiteraient pas d'une utilisation sur la durée. Mais mesurons objectivement le risque et profitons de notre expérience pour prendre du recul et laisser le temps à ce nouveau marché de se développer et de s'installer au sein des foyers.
Les orientations du marché Les français sont-ils prêts à transformer leurs modes de vie ? Le marché démarre seulement et pourtant la population française est déjà bien informée. Autant les entreprises commencent doucement à s'y intéresser, autant les particuliers sont déjà dans l'attente de certains objets. Forcément, il est facile d'imaginer à quel point ces objets pourraient faciliter leur quotidien. Et puis, comme vu plus haut, les français sont friands de nouvelles technologies. Ce n'est donc pas étonnant que la Fnac possède déjà un rayon réservé aux objets connectés depuis septembre 2013. Dans un futur proche, les principaux
domaines concernés par l'internet des objets seront les domaines de la santé, des loisirs et de la personne. Ce n'est pas étonnant notamment pour la santé dont les besoins rejoignent la plupart des données récoltées par les objets connectés déjà disponibles à la vente : enregistrement du rythme cardiaque et de l'activité par exemple. Ce ne sera ensuite qu'une question de temps pour que les autres domaines bénéficient, eux aussi, de ces nouveaux modes de consommation. En revanche, comme évoqué à plusieurs reprises, c'est une petite révolution qui se prépare. Voire même une « révolution industrielle » pour reprendre les mots de Valentine Ferreol, Présidente de l'Institut G9+. Il ne faut donc pas en sous-estimer les impacts notamment en ce qui concerne la gestion des masses de données disponibles. Le Big Data, sera le nouvel enjeu de demain si ce n'est pas déjà le cas. C'est un véritable défi et une merveilleuse opportunité pour les instituts d'études, spécialistes de la gestion des données, qui auront un important rôle à jouer. Quant au marketing relationnel, il va profondément se modifier. La communication se fera de plus en plus directement via le produit. En plus de représenter l'offre finale faite au client, il sera au cœur de l'étude de ce dernier comme un outil central pour davantage connaître son client. Alors, la nécessité d'interroger régulièrement les consommateurs n'aura peut-être vraiment plus aucun intérêt !
ATELIER
Améliorez vos rapports avec l'infographie
par Sébastien Aurionnaux saurionnaux@ethnosoft.com
Il fut un temps où l'on se méfiait de l'image en considérant qu'elle ne pouvait apporter qu'une vision partielle de la vérité. Ce temps est aujourd'hui révolu. Dans un vigoureux mouvement de balancier nous sommes passés dans l'ère du « tout image » où l'on ne croit plus que ce que l'on voit de ses propres yeux et où une image vaut mille mots (ou, au choix, un long discours !). L'image est devenue un langage universel, capable de transmettre valablement les idées, quitte à les condenser et à les résumer. C'est exactement ainsi que se positionne aujourd'hui la mode de l'infographie que nous voyons fleurir dans la presse et sur le web, à travers des cartes, schémas et diagrammes séduisants et à forte teneur artistique. Voyons comment mettre en oeuvre concrètement ce concept dans vos rapports et présentations, en maximisant les apports de la technique et en évitant ses écueils fréquents.
Vo u s s o u h a i t e z d i f f u s e r d e l'information visuelle et séduisante de manière synthétique et intelligible : adoptez l'infographie ! Plus seulement réser vée aux artistes, cette technique s'utilise aujourd'hui dans de nombreux domaines comme les sciences, la presse et bien sûr, les études marketing. Une infographie est une représentation graphique réalisée avec des moyens infor matiques et qui présente, dans une image unique une multiplicité d'informations déclinées de manière très visuelle. Les journaux regorgent de très belles infographies, qui permettent d'exposer des situations, des conflits ou des évolutions de manière agréable et parlante. On désigne d'ailleurs cette tendance par l'expression data-journalisme. Dans le domaine du web marketing, l'infographie consiste à diffuser un message visuel synthétique, sous forme d'illustration ou d'image. Cette technique a des propriétés tellement bien adaptées à la diffusion des informations sur Inter net qu'elle est devenue aujourd'hui un langage web à part entière. Beaucoup d'internautes l'utilisent pour communiquer tout type d'information, de la simple présentation d'un évènement à la mise en scène des données les plus complexes. Comment tirer profit très concrètement des apports de l'infographie dans les études ? Comment concevoir une infographie de qualité en profitant de tous les avantages de la technique ?
Au service des études L'infographie permet donc à la fois d'être synthétiques et clairs. C'est justement exactement ce que l'on cherche à faire lorsqu'on veut communiquer efficacement les résultats suite à une étude. Généralement, on dispose de nombreux chiffres et éléments que l'on consigne dans des rapports de plusieurs pages. Avoir en plus du rapport un document synthétique avec les principaux éléments de résultats est très tentant. C'est pour cela que l'infographie est plébiscitée par les professionnels du marketing surtout quand ils souhaitent diffuser les résultats de leurs enquêtes à une large cible. Sous forme d'image, l'infographie est adaptée à la distribution web et favorise une propagation virale. Effectivement, elle va être facilement échangeable entre internautes sur web et mobile grâce aux emails, réseaux sociaux, blogs, site web, etc. Mais diffusée sur support print, elle aura aussi son intérêt via les journaux d'entreprise ou les magazines professionnels par exemple. Si cet outil a été aussi vite adopté, c'est parce qu'il dispose donc de nombreux avantages. Support ludique
Vous allez pouvoir communiquer vos informations les plus complexes (datas, statistiques…) de manière simple. En effet, l'infographie se compose d'illustrations, d'émoticônes, de schémas ou encore de représentations graphiques. Elle est, la plupart du temps, accom-
Survey Magazine - Avril 2014
57
ATELIER pagnée de données simples (pourcentages, explications complémentaires…). Mais pour autant, la majorité des infographies se comprennent dès le premier coup d'oeil sans forcément nécessiter la lecture de textes complémentaires. Ce format est un atout majeur quand on sait que 90 % de l'information qui parvient à notre cerveau pour être scannée et assimilée est visuelle. Ce mode de présentation va aussi être un atout pour votre image de marque puisque qu'elle va démontrer à votre cible votre expertise et votre capacité à analyser une information ou une problématique parfois complexe et à la synthétiser de façon ludique sans pour autant en perdre son message principal. Rendu attrayant
Voilà pourquoi, son aspect marketing très prononcé est un réel atout. L'infographie participe à votre image de marque et son aspect visuel ludique est attirant et à même de séduire et attirer vos consommateurs : c'est particulièrement le cas des internautes, friands des chiffres, des statistiques et des schémas qui leur permettent de saisir en un regard les tenants et les aboutissants d'une question posée. Outils viraux
Votre cible online sera la plus réceptive à ce type de présentation et c'est ainsi que vous créerez du trafic vers votre site ou vos pages sur les réseaux sociaux. On parle ici de viralité car l'infographie est facile à lire et surtout facile à partager ! L'engouement pour les plateformes de partages d'images telles que Pinterest, ou encore Instagram nous le confirment, les internautes aiment les images et particulièrement quand elles ont un intérêt informatif à être partagées. Par le biais des multiples partages qu'elle va engendrer, votre infographie va améliorer votre trafic. En effet, elle va inciter d'avantage de cibles à venir vous rendre visite. En véritable outil marketing, vous développerez ainsi la reconnaissance de votre marque. C'est pourquoi votre référencement aussi va être consolidé puisque le lien partagé profitera à la
58
Survey Magazine - Avril 2014
notoriété de votre site web. En revanche, étant en for mat image, le contenu textuel de l'infographie (mots clés, chiffres…) ne sera pas pris en compte par le SEO (référencement naturel) et n'aura donc pas d'impact sur ce plan.
Un usage parfois abusif Parce que tous les avantages cités précédemment en ont fait un support idéal pour de nombreuses entreprises et journaux en ligne, l'infographie est parfois utilisée à outrance pour diffuser n'importe quel type de données ou informations (qu'elles soit d'ailleurs pertinentes ou pas). Support marketing, commercial ou comique, on en abuserait rapidement. Sources non indiquées
Les sources des infographies sont de moins en moins mentionnées. Ce n'est pas encore une généralité, mais l'attention retenue sur le graphisme nous ferait parfois oublier de vérifier et d'indiquer les sources des informations communiquées. Informations peu pertinentes
Comme les sources sont parfois non connues, la question de la pertinence des informations se pose. En effet, quand l'infographie n'informe pas, ne soulève aucun élément intéressant, ou ne répond à aucune interrogation pertinente, c'est alors qu'il faut privilégier la qualité à la quantité. Par exemple, il n'y a aucun intérêt à publier une infographie suite à une étude de mauvaise qualité dont les données sont peu certaines et ne répondent pas aux objectifs prévus en amont. Support non adapté
D a n s l e d o m a i n e d e s é t u d e s, l'utilisation de l'infographie a pour but de communiquer différemment sur ses résultats de manière à capter l'attention du lecteur à propos d'une problématique parfois trop complexe pour être expliquée à l'aide de mots. Cependant, il ne faut pas en abuser et
c'est pourtant souvent le cas. Pensez que parfois un bon article bien détaillé est plus adapté pour transmettre certaines informations.
Concevoir une infographie Les infographies de qualité attirent autant les consommateurs que les professionnels, mais comment concevoir une infographie intéressante ? Réexion préalable
Comme un article, une infographie demande une accroche pour attirer le lecteur, une problématique à laquelle répondre, des arguments à présenter et une conclusion répondant à la question tout en laissant une ouverture intéressante. C'est pourquoi elle nécessite une réflexion préalable avant de se lancer dans sa réalisation brute. En premier lieu, il faut choisir le sujet sur lequel sera concentrée votre infographie : problématique, état des lieux, bilan, obser vation d'une tendance, etc. Le support est limité en taille, les illustrations sont encombrantes, et il faut capter l'attention du début à la fin, cela nécessite d'aller droit au but et de ne pas s'égarer en chemin. Ensuite vous devez choisir le titre. Contrairement à la diffusion traditionnelle des résultats d'une étude, pensez que c'est ce titre qui va être partagé et repris par votre cible alors faites en sorte qu'il soit accrocheur ! Une fois le contexte délimité, il va falloir argumenter et pour cela il vous
ATELIER faut des informations pertinentes. C'est ici que vous allez pouvoir sélectionner parmi les résultats de votre étude. Si vous utilisez des sources externes complémentaires, n'oubliez pas de les mentionner. Maintenant, passons à la structure de l'infographie : Dans un premier temps, il faut reprendre son objectif défini juste avant et détailler son ascension : depuis la ligne directrice à suivre, en passant par le format choisi, puis les textes complémentaires jusqu'à la conclusion. De plus, réfléchissez aux éléments essentiels à mettre en avant pour répondre au sujet et quels sont ceux, qui au contraire, sont superflus. Pour l'enchaînement des informations communiquées, la méthode du storytelling est tout à fait adaptée à l'infographie. En effet, quoi de mieux
qu'une histoire pour capter l'intérêt du lecteur, particulièrement quand cette dernière peut être imagée. Une fois le fil conducteur déterminé, vous pourrez commencer à visualiser les types d'illustrations les plus pertinents comme une chronologie, un camembert, des tableaux comparatifs, une carte annotée, etc. Conception
Vous êtes maintenant prêt pour l'étape de conception ! Présenter des données dans une infographie est un travail de longue haleine puisqu'elles doivent être rapidement visibles et comprises par le lecteur. Commençons donc par les règles de base à respecter : Privilégiez les graphiques au texte pour valoriser les informations les plus importantes : la représenta-
tion visuelle aura toujours un impact plus important dans une infographie. Evitez de multiplier les typographies. Limitez -vo us en ter mes de transmission d'information. Il vaut mieux deux infographies traitant d'un sujet précis, qu'une seule regroupant le tout. Aujourd'hui, vous trouverez de plus en plus d'outils en ligne grand public pour réaliser vous-même vos infographies. Souvent gratuits ou freemium, vous pouvez profiter d'une grande variété de choix aussi bien au niveau de l'outil en lui-même que des fonctionnalités disponibles. Mais si votre budget le permet, n'hésitez pas à vous rapprocher de professionnels du graphisme.
Comparatif des outils disponibles En dehors de la suite Adobe qu'on ne présente plus, il existe de nombreuses solutions utilisables en ligne et gratuitement ou freemium pour créer ses propres infographies. Petit tour d'horizon de ces plateformes (liste non exhaustive) : Création d'infographies interactives ; Simple d'utilisation et très intuitif ; Possibilité d'ajout de contenus vidéo, photos, etc.
Fonctionnalité drag and drop ; Edition de texte et insertion rapide d'icônes ; Choix des couleurs pour l'arrière-plan ; Possibilité de choisir un format « Responsive design » (pour mobile par exemple) ; Mais pas d'import de données possibles Version gratuite limité à 3 thèmes très basiques et pauvre en fonctionnalité ; Version payante : Prix raisonnable (15 à 30 dollars mensuel) et nombreuses fonctionnalités qui permettent de créer toutes sortes d'infographies (simples ou complexes) ; Insertion facile d'images, formes, graphiques et texte ; Import de fichiers csv possible Raconter l'histoire de vos réseaux sociaux en infographie ; Peu de modèles disponibles ; Modèles peu personnalisables. Possibilité de télécharger ses propres données ; Nombreux types de graphiques disponibles ; Outil principalement dédié à l'analyse et à la comparaison de données, sous forme de diagrammes, d'arbres sémantiques, et de cartes ; Utilisation complexe ; Visuels de faible qualité Permet de générer une infographie originale reposant sur du texte, de type « nuage de tags » Propose un large choix d'objets ; Adapté à un public expert : pas de templates disponibles. Tout est à créer soi-même ; Les infographies réalisées sont exportables gratuitement en format image ou via un code HTML « embed »
Survey Magazine - Avril 2014
59
PROJET
par Soline Pulicani spulicani@ethnosoft.com
Créez votre panel propriétaire
Dans la conjoncture actuelle, beaucoup d'entreprises cherchent à optimiser leurs budgets. Les dépenses de marketing sont très souvent parmi les premières à subir les réductions de coûts, ce qui incite les responsables concernés à faire preuve d'un surcroît d'imagination et d'initiatives pour donner autant de résultats avec moins de moyens. Dans le domaine de la recherche marketing, plusieurs approches sont possibles pour faire des économies. L'une des pistes, explorée actuellement par plusieurs grandes entreprises, consiste à internaliser certaines études en dotant la société d'un panel en propre de consommateurs, clients, testeurs, etc. L'approche est séduisante et semble susceptible d'apporter non seulement une forte réduction du coût des études mais également de nombreux avantages que nous évoquerons ciaprès. Elle reste toutefois délicate et nécessite, pour réussir, une démarche rigoureuse et progressive.
60
Survey Magazine - Avril 2014
PROJET Intéressons-nous d'abord à la notion de panel au sens large. Selon la définition usuelle, un panel est un « échantillon permanent de population, interrogé régulièrement dans le cadre d'une enquête, d'un sondage, d'une étude de marché ». En revanche, on nomme « panel propriétaire », le panel qui est exclusif à une entreprise. En effet, contrairement au panel traditionnel, il correspond à une base de données qualifiées en fonction des besoins propres à une entreprise et dont l'ensemble de ses membres a donné son accord « optin » pour participer régulièrement aux études marketing de cette même société. Ainsi, le panel propriétaire permet une certaine liberté à la société utilisatrice qui va pouvoir directement y faire appel en cas d'enquête. Il se traduit également en général par des économies substantielles dans le temps, par rapport au recours à des fournisseurs de panels externes.
Qui est concerné ? L'engouement actuel pour les panels propriétaires sur vient dans un contexte technologique favorable. En effet, l'expansion constante des technologies numériques et la généralisation de l'usage de l'Internet fixe ou mobile facilitent l'accès direct des entreprises à leurs cibles et la rapidité de communication et de collecte de données de tous types. Les entreprises qui cherchent à développer leur propre panel sont surtout celles qui éprouvent le besoin d'interroger régulièrement leurs consommateurs. Arnaud MAST, directeur commercial et marketing chez EasyPanel, l'un des spécialistes français des panels consommateurs, nous le confirme : « Dès lors qu'un institut d'études, un annonceur, une enseigne, ou une marque a besoin de mener régulièrement des études sur panel, alors il peut être intéressant de créer, gérer puis solliciter son propre access-panel propriétaire. Cependant, créer et gérer un panel propriétaire nécessite une réelle implication interne, une cohésion d'équipe et un programme d'études cohérent : ce doit être un projet stratégique au long terme. » Comme pour la plupart des projets, les entreprises commencent d'abord par se poser la question du prix, du temps nécessaire et de la rapidité de démarrage. Arnaud MAST prévient immédiatement ses clients qu'il n'y
pas de réponse toute faite à ces questions puisque tous les projets de création de panel sont différents. Par son expérience, il sait que certains finissent d'ailleurs par se rendre compte que leur véritable besoin n'est pas de créer leur propre panel mais de solliciter un panel de consommateurs déjà existant. Par contre « d'autres seront prêts pour l'aventure de 'Création de panel propriétaire' car leur projet aura été mûrement réfléchi. Les prestations dépendront alors de leurs besoins véritables : site de panel seul, programmation de questionnaires, consulting en gestion de panels, recrutement, etc ». Pour Monsieur MAST, les trois questions préalables que l'on doit se poser avant de se lancer définitivement dans la mise en place d'un panel propriétaire sont les suivantes : Pourquoi créer notre panel et ne pas recourir aux panels de prestataires déjà existants ? Quel est notre programme d'études (Nombre d'études, type, fréquence, etc.) ? Quels sont nos moyens (Humains, techniques, incentives, partenaires éventuels, etc.) ? En cherchant à répondre à ces questions, l'entreprise pourra mûrir son projet et évaluer sur des bases solides l'opportunité de se lancer dans l'aventure du panel propriétaire.
De multiples avantages… En possédant un panel, quels sont les avantages principaux dont bénéficient les entreprises ? Réduction des coûts
Effectivement, à l'inverse d'un access panel traditionnel, elle a, dans ce cas présent, accès à l'ensemble des informations des membres, ce qui lui permet une connaissance précise des profils. De plus, elle peut alors bénéficier d'une vue globale et détaillée sur l'ensemble de ses enquêtes : depuis le choix de chaque membre du panel, en passant par les formats de communication, jusqu'à l'analyse des résultats qui profite alors d'informations de meilleure qualité. « Cela permet d'avoir une autonomie études sur panel très rapidement, de réaliser des économies au long terme, et de maîtriser la qualité des participants aux études comme le sérieux, ou l'implication, puisqu'on est propriétaire du panel » souligne Arnaud MAST. Qualité
En plus de permettre un contrôle de la qualité des panélistes, le panel propriétaire va aussi jouer un rôle sur la qualité des études réalisées. En effet, les études pourront se faire plus nombreuses grâce à la facilité d'accès du panel, ce qui permettra des analyses périodiques ou étalées sur plusieurs phases. Ainsi, les enquêtes seront mieux ciblées et les résultats n'en seront que plus précis et de meilleure qualité. De plus, cet outil permet de faire des études que l'on n'aurait pas menées autrement, ce qui conduit à une hausse de la connaissance client ainsi qu'à la mise en place d'actions marketing plus ciblées. Concernant le temps de réponse, on peut obtenir des retours dans des délais très réduits : on compte un fort taux de réponse dans les 48H. Relation client enrichie
La crise économique a nettement contribué à la baisse des budgets alloués aux études marketing. C'est pourquoi internaliser et gérer soimême son panel sont des éléments qui promettent une réduction des coûts pour les services marketing. En effet, on peut l'expliquer par le fait que la société commanditaire va investir une fois pour toute lors de la création de son propre panel. Puis, elle pourra le questionner régulièrement sans besoin de recommencer à chaque étude ce travail coûteux d'acquisition de panélistes.
Grâce à une sollicitation plus régulière, des contacts privilégiés s'établiront avec certains panélistes. Subséquemment, des profils « ambassadeurs de la marque » pourront même rapidement être détectés et deviendront une véritable mine d'or de données additionnelles. Mais attention, cela nécessite un encadrement particulier et l'organisation de moments d'échanges (rencontres physiques, forums dédiés, etc.).
Contrôle
…mais quelques limites
Le deuxième avantage est bien entendu le contrôle dont va pouvoir j o u i r l a s o c i é t é p r o p r i é t a i r e.
La gestion d'un panel propriétaire présente quand même certaines limites à prendre en considération : Survey Magazine - Avril 2014
61
PROJET Au départ, il est nécessaire de planifier ses actions afin de coordonner en amont ses besoins de recherches car le panel ne doit pas être sollicité de manière abusive. En effet, il faut rester correct en matière de quantité et de fréquence des études si l'on veut que les panélistes restent motivés et que les données récoltées gardent leur pleine qualité. D'ailleurs, la gestion d'un panel propriétaire demande un travail d'animation non négligeable pour maintenir le panel actif. Nous verrons comment procéder un peu plus loin. Enfin, pour maintenir les informations de chaque panéliste à jour, un travail de vérification doit être mené régulièrement.
Un contexte technique favorable Aujourd'hui, des dispositifs techniques disponibles directement en ligne ou à installer en interne facilitent grandement l'autonomie des professionnels du marketing. En effet, grâce à des outils ergonomiques et des échanges facilités avec les consommateurs, internaliser ses études marketing est devenu un jeu d'enfant. Grâce à eux, il est possible de gérer soi-même sa base de volontaires, son site web dédié au panel, la conception de ses propres questionnaires et leur diffusion via web et/ou mobile, le traitement des données issues des enquêtes ainsi que la création et la diffusion des rapports d'études. Notons aussi les nombreuses plateformes d'échanges sur lesquelles
il est aisé de rencontrer les consommateurs : forums, blogs, réseaux sociaux, sites web de l'entreprise, email, etc. En plus de pouvoir discuter directement avec eux, il est possible de récolter de nombreuses données sur eux et ainsi de vérifier leur identité et de mieux les cibler. De plus, les réseaux sociaux sont des lieux rêvés pour repérer et recruter des panélistes engagés.
L'approche optimale La création d'un panel propriétaire répondant aux besoins d'une société demande de respecter une méthodologie sérieuse. Généralement, on ne se lance pas dans un tel projet tous les jours. De ce fait, rares sont les responsables marketing ou opérationnels ayant déjà la maîtrise d'un tel processus. L'appel à un professionnel qualifié se justifie donc pour aller plus vite à l'essentiel en évitant les écueils. Précisons à ce sujet que l'appel à un spécialiste n'est pas antinomique avec la volonté d'autonomie puisqu'elle va intervenir surtout pour une bonne mise en place du système, qui sera ensuite maîtrisé par l'entreprise. Ce raisonnement est valable même si une partie de la gestion du panel est également sous-traitée. En effet, l'écart par rapport à un recours aux panels externes reste très important.
La mise en place du panel Même si posséder son propre panel permet une certaine dose de liberté, n'oublions pas l'engagement que cela implique, particulièrement si l'on
souhaite internaliser sa gestion dans son ensemble ou en partie. Aussi, les professionnels des panels proposent aujourd'hui des solutions pour guider les professionnels du marketing depuis leur prise de décision de créer un panel propriétaire, en passant par l'acquisition des panélistes jusqu'à son animation. Tel un accompagnement à la carte, ces structures répondront à vos besoins particuliers au cours d'une ou plusieurs étape(s). Ce qui vous permet une internalisation totale ou partielle. Mais comment savoir si cette solution est faite pour vous ? Si vous choisissez de vous faire accompagner, vous bénéficierez de l'expérience d'un professionnel, ce qui vous évitera certaines erreurs de débutant. Par contre, en faisant appel à un habitué, vous pouvez être frileux à l'idée que son expérience limite le regard neuf que vous attendez pour la création de votre panel. Cette crainte est tout à fait normale, c'est pourquoi on parle d'accompagnement et non d'externalisation. En véritable conduite en binôme, vous pourrez bénéficier d'un soutien lors de la définition du cahier des charges et au moment de la rédaction d'une charte spécifique à votre panel. A ce moment-là, vous serez orientés pour mettre en place les processus de recrutements, qui sont d'ailleurs très largement simplifiés par internet et les réseaux sociaux. Ensuite, la plupar t du temps, l'accompagnement se poursuit jusqu'aux premiers recrutements des
Accompagnement BtoB/BtoC marque du Groupe RésolutionS
te s i l a i c é Le sp études de vos atives ! it quant Contact : Marie Delpierre E-mail : contact@qualisondages.com 03 28Magazine 36 85 46 - Avril 2014 62Tél :Survey
Baromètre satisfaction Étude de lectorat Notoriété / Image Pré-test / Post-test
Étude d'opinion Étude de prix Miroir interne / enquête salariés
Recueil On line Téléphone (plateforme intégrée) Courrier (atelier marketing direct intégré)
Compétences Création de questionnaire Dénition d'échantillon Terrain Gestion de quotas
Analyse détaillée Préconisations opérationnelles Dénition de plan d'action Présentation
5 r u e d u R o u g e B o u t o n - Z o n e I n d u s t r i e l l e B - 5 9 11 3 S e c l i n
PROJET panélistes afin de constituer une base de départ suffisante pour permettre la réalisation de vos premières enquêtes. Par la suite, vous pourrez soit internaliser ce processus pour des recrutements ponctuels supplémentaires, soit continuer à faire appel à un expert. Aussi, il est intéressant de se faire assister lors de la mise en place et de la formation aux outils informatiques. Ainsi, la prise en main est plus rapide et le besoin futur en assistance technique sera plus faible. En résumé, se tourner vers un accompagnement vous permettra d'adopter les bonnes pratiques rapidement pour ensuite vous tourner vers une internalisation en toute sérénité.
Des étapes à respecter Voici la méthodologie recommandée par nos experts pour mettre en place votre propre panel : 1. Dénition des objectifs et choix des outils
La première étape comprend la définition des objectifs ainsi que les délimitations de votre projet. On parle d'étape de pilotage. Le but étant, à ce stade, que vous ayez une idée précise des interfaces informatiques nécessaires pour votre projet ainsi qu'une estimation établie du budget global. Pour cela, vous allez, dans un premier temps, définir les différentes étapes de votre projet puis vous passerez au choix des outils informatiques et de leur personnalisation au besoin (développements complémentaires…). Aussi, voici les outils de base dont vous devez disposer pour la gestion d'un panel : Une plateforme logicielle de recrutement et d'administration de votre panel, Des outils de conception de questionnaires multiplateformes (web, mobiles, scan, téléphone…), Des logiciels d'analyse, de reporting et de transmission des résultats. Si on se base par exemple sur la gamme de l'éditeur Soft Concept, la plateforme de gestion de panel s'appelle Survey-Manager M. L'outil de conception de questionnaires mutliplateformes est Net-Survey M et l'outil de traitement est Ethnos. Le fait qu'un éditeur vous propose ainsi une
gamme d'outils intégrés et qui communiquent parfaitement entre eux est bien sûr préférable à des solutions mixtes, combinant des produits différents à interfacer. 2. Création et développement de votre site de panélistes
Créer un panel propriétaire équivaut à fédérer une communauté active et volontaire. Alors, pour recruter ces panélistes de qualité, il est important de répondre à leurs attentes. Dans un premier temps, il faut créer un groupe. Pour cela, mettre en place une plateforme d'information et d'inscription en ligne est une étape essentielle : choisissez un site web ou une page web propre au panel et facile d'accès. Ce lieu online permettra aux panélistes de s'inscrire via un formulaire, d'accéder à l'ensemble des informations liées au panel (fréquence de sollicitation, délais de réponse demandés…) et de communiquer avec vous (FAQ, formulaire contact…). 3. Recrutement, animation et renouvellement des panélistes
Une fois la plateforme mise en place, vous pouvez passer à l'étape de recrutement. Munissez-vous de vos critères et concevez votre formulaire pour faciliter la sélection des panélistes. D'ailleurs, nous vous recommandons d'informer les internautes, en amont de l'inscription, des profils que vous recherchez. Pour motiver leur inscription : communiquez ! Ils doivent connaître les avantages dont ils bénéficieront (incentives) ainsi que l'importance de leur avis. Face à ces nouveaux consommateurs, profitez de leur attrait pour la marque et ne focalisez pas leur inscription sur les avantages en nature ou financiers dont ils bénéficient. Bien évidemment, créer un panel propriétaire n'est pas une fin en soi. Le vrai travail commence après : lorsque vous devez animer votre panel et le maintenir actif sur la durée, sans quoi ce dernier perdrait rapidement tout son intérêt jusqu'à même disparaître. C'est le caractère volontaire des membres qui accentue l'obligation d'une animation dynamique : relances, transparence et rigueur au niveau de leurs récompenses. Par exemple, s'ils gagnent des produits, pensez à leur envoyer en temps et en heure. Concernant la fréquence des études, il faut qu'elle soit clairement définie au moment de l'inscription. D'ailleurs,
pensez à privilégier des petits questionnaires réguliers (un par semaine de 5 minutes par exemple) plutôt qu'un long questionnaire mensuel, qui risque de lasser le panel. Et prévoyez quelques relances ponctuelles en cas de nécessité ou tout simplement pour rester en contact et montrer votre intérêt pour le panéliste. Et enfin, pour maintenir un panel actif et répondant à vos critères, un renouvellement périodique peut s'avérer nécessaire. Pour le savoir, restez attentif à votre taux de retour et procédez à un contrôle qualité régulier (vérification des informations, logique dans les réponses…). 4. Création, administration et traitement de vos questionnaires
Vous pouvez maintenant commencer à créer vos questionnaires, interroger vos panélistes et étudier leurs réponses.
A vous de jouer ! Vous avez maintenant toutes les cartes en main pour créer et développer votre panel propriétaire comme de nombreuses sociétés qui ont eu le courage de se lancer. Et surtout profitez de ces nouveaux consommateurs ! Aujourd'hui, ils comparent, détaillent et inspectent les marques : ils sont passés de l'état de consommateur passif à celui de consommateur actif au centre de la stratégie des entreprises. Potentiellement ambassadeurs, ils cherchent à développer une relation privilégiée avec les marques afin d'avoir un impact sur le développement de leurs produits et services. Vous pouvez trouver des contenus à propos de la création d'un panel propriétaire online sur le site http://pro.easypanel.fr, rubrique « création de votre panel online ».
Survey Magazine - Avril 2014
63
TECHNIQUE par Laurent Conroux lconroux@ethnosoft.com
Maîtrisez le Net Promoter Score
« Recommanderiez-vous notre entreprise à vos amis ? » Dans un monde qui ne cesse de se complexifier, la promesse de saisir une réalité multiforme avec un outil simple et direct ne peut que séduire. C'est exactement ce qu'offre le Net Promoter Score aux décideurs soucieux de connaître et suivre la satisfaction de leurs clients. Ce système leur propose non seulement un indicateur unique facile à obtenir mais également la possibilité de suivre leur évolution dans le temps et de se comparer avec n'importe quelle autre entreprise concurrente ou d'un tout autre secteur d'activité. Cela ressemble donc à l'outil parfait. Regardons un peu comment il fonctionne et ce qu'il faut savoir pour le mettre en oeuvre en bonne connaissance de cause. Le « Net Promoter Score », souvent désigné par l'acronyme NPS, peut être traduit en français par « Score N e t d e R e c o m m a n d a t i o n » . Largement utilisé par les grandes entreprises Américaines (Ebay, HSBC, Facebook, Virgin Media, etc.), le NPS séduit également en France. Il faut dire que l'outil a un atout de taille, la simplicité. Alors que l'époque est au big data, aux réseaux sociaux, aux relevés biométriques et autres enquêtes ultra-sophistiquées basées sur des concepts et des méthodologies de plus en plus complexes, le NPS lui se contente d'une simple question à poser aux clients : « Recommanderiez-vous à un ami votre voiture ? » (ou votre smartphone, votre banque, etc.). Le postulat sous-jacent est clair : la recommandation est le marqueur de la satisfaction et de la fidélité. La propension à accepter de se porter garant d'un produit auprès de ses proches augmente si l'on est satisfait et donc certains que l'on rend service par cette recommandation.
Une méthode simple Le NPS a été mis au point par Fred Reichheld, Directeur de la recherche de Bain & Company (cabinet de conseil en stratégie et management de l'entreprise), spécialiste mondial de la fidélisation de la clientèle, il a introduit ce concept dans son article “The One Number You Need to Grow” (Harvard Business Review) en 2003. Pour Fred Reichheld les entreprises négligent l'importance du service client et oublient une variable pourtant essentielle : les clients satisfaits.
64
Survey Magazine - Avril 2014
La plupart des entreprises cherchent à acquérir de nouveaux clients alors que le principal potentiel de croissance réside dans l'entretien des « clients heureux », ce sont eux qui vont réaliser le travail d'acquisition puisqu'ils recommanderont le produit ou service à leur entourage. Le NPS permet de mesurer ces promoteurs. La première étape consiste à poser la question ultime à ses clients « Recommanderiez-vous notre entreprise ou produit à un ami ? ». Les réponses sont données sur une échelle de notation de 11 points, allant de 0 (tout à fait improbable) à 10 (tout à fait probable). Cette échelle permet de mettre en évidence trois segmentations de clients, selon leur degré d'enthousiasme : Les promoteurs : la note est de 9 ou 10. Ce sont les clients les plus fidèles, extrêmement satisfaits et qui vont générer un bouche à oreille positif. Le palier pour atteindre cette catégorie est vo l o n t a i r e m e n t é l e v é p o u r marquer le très fort attachement à la marque. Les passifs : la note attribuée est de 7 ou 8. Ce sont des clients neutres, qui sont en général des clients satisfaits, mais pas spécialement enclins à recommander la marque.
Ils sont donc beaucoup plus vulnérables aux différentes offres existantes sur le marché. Les détracteurs : la note est comprise entre 0 et 6. Ce sont des clients pas satisfaits, déçus par leur expérience de consommation, qui vont donc générer un bouche à oreille négatif. C'est un groupe dang ereux pour l'imag e de l'entreprise. Le NPS s'obtient en soustrayant le pourcentage de détracteurs à celui des promoteurs. Le score se situe alors entre -100 (dans ce cas, tous les répondants sont des détracteurs) et 100 (tous les répondants sont des promoteurs). Par exemple, si une entreprise constate 35% de Promoteurs, 45% de Passifs et 20% de Détracteurs, le NPS sera alors de +15 qui est donc le gain net réalisé en promoteurs. Si l'indice NPS est négatif : il y a plus de détracteurs que de promoteurs. Si au contraire l'indice est positif, il y a plus de promoteurs et il est considéré comme une indication d'une bonne satisfaction clients. Au-dessus de 50 le NPS est considéré comme excellent. Notons que cet indice est très simple à mettre en place dans le logiciel Ethnos au moyen d'une simple question qualitative sur 11 réponses de 0 à 10 et d'un tri spéci-
Détracteurs
0
1
2
3
Passifs
4
Net Promoter Score
5
=
fique qui fournit les trois pourcentages et le score. Le NPS est souvent complété par une question ouverte afin d'explorer les raisons et les motivations de ses consommateurs. L'entreprise peut ensuite travailler à renforcer l'attachement des clients prescripteurs, à séduire ou convaincre les clients neutres, et à gérer, en les identifiant correctement, les détracteurs. Cet indicateur se veut une mesure efficace de la qualité de la relation client. Ce nombre unique est facile à mettre en œuvre, à calculer et à communiquer. Rapide et économique, il permet de faire des très courts sondages à des fréquences élevées et de suivre précisément l'évolution de l'indicateur dans le temps. Face à l'érosion du taux de réponses dans les enquêtes classiques et leur coût souvent élevé, le NPS peut se placer comme une alternative aux enquêtes de satisfaction.
Un indicateur corrélé avec la croissance de l'entreprise Pour Fred Reichheld, les entreprises doivent prendre soin de leurs « clients heureux » qui sont des prescripteurs. En effet, l'entreprise qui sait s'attacher de tels clients engrange alors des profits sains et récurrents : les « bons
6
7
Promoteurs
8
Promoteurs
9
10
- Détracteurs
profits ». A contrario les mauvais profits, sont des bénéfices faciles, générés par une croissance à court terme, et qui vont engendrer des détracteurs à moyen terme. Une étude menée par Bain & Company a révélé que les entreprises qui possèdent une croissance rentable à long terme constatent des scores NPS deux fois plus élevés que la moyenne et disposent d'une très bonne qualité de relation avec leurs clients. Le NPS tire les exigences vers le haut et cherche à aller beaucoup plus loin que la simple satisfaction de ses clients.
Un seul et unique indicateur est–il sufsant ? L'utilisation du taux de recommandation, en tant qu'indicateur principal, est sujet à controverses. Beaucoup de chercheurs et professionnels de l'analyse de données sont sceptiques concernant le pouvoir synthétique de cet indicateur. Pour eux, le score NPS est intéressant mais ne suffit pas. Son intérêt principal réside essentiellement dans la question ouverte. En effet sans explications complémentaires sur l'intention du client, le NPS a très peu de sens. Il ne permet pas de comprendre les mécanismes très complexes de la satisfaction. Il faut
TECHNIQUE souvent un questionnement beaucoup plus étoffé pour mesurer le taux de fidélité. De plus, le NPS se targue d'être une mesure précise de la satisfaction client alors qu'il n'est en réalité qu'un outil de l'intention de recommander, et ne mesure finalement pas le comportement réel du consommateur. Il traduit une promesse et n'évalue pas le vrai taux de bouche à oreille. Entre l'intention et l'action, il peut y avoir un réel fossé. L'échelle sur 11 positions est aussi l'objet de critiques. Elle semble souvent fournir de moins bons résultats qu'une échelle à 5 positions, par exemple : Tout à fait ; Plutôt oui ; Sans opinion ; Plutôt non ; Pas du tout. Par ailleurs, utiliser la même échelle de réponse pour tous les secteurs d'activités peut présenter des limites de comparaison. Il est nécessaire de se référer aux tables de valeurs moyennes du NPS par secteur d'activité (disponibles sur internet). La plus grande force du NPS réside dans sa simplicité de mise en œuvre et d'interprétation. Son utilisation est séduisante et beaucoup d'entreprises l'ont adopté avec satisfaction en France. Pour autant il ne peut pas remplacer un questionnaire détaillé sur les critères qualité. Il peut néanmoins être considéré comme un outil complémentaire. Mais que vous utilisiez le NPS ou un autre indicateur de satisfaction client, vous êtes certainement guidés par un même objectif : enrichir constamment la qualité de la relation client. Nous avons tous besoin de clients fidèles !
INTELLIGENCE ÉCONOMIQUE CONSEIL EN ORGANISATION COMMERCIALE PROSPECTION TÉLÉPHONIQUE
Nous accélérons vos Ventes B to B depuis 1983 à travers nos 7 métiers.
FORCE DE VENTES SUPPLÉTIVE CENTRE D’APPEL TECHNIQUE FORMATION COMMERCIALE
www.forceplus.com
AGENT COMMERCIAL Survey Magazine - Avril 2014
65
EXPERTISE Avis d'expert
Yannick Busson yannick.busson@ybconsulting.fr
Traitement et analyse de verbatim sur des gros chiers : le jeu en vaut-il la chandelle ? L'avènement du big data a mis en avant deux types de données qui n'étaient jusqu'a présent pas ou peu analysées sur de gros volumes : les données textuelles et les images. Ce manque d'appétence de la part des entreprises pour défricher des insights forcément cachés dans cette somme de données s'explique par la complexité et le caractère extrêmement chronophage de ces analyses. Qui dit complexité dit développement d'une méthodologie de traitements pour y faire face. Cette méthodologie ne peut qu'être ad'hoc dans un cadre big data puisqu'il s'agit de s'emparer des données propres à l'entreprise, éparses ayant des thématiques très variées. Cette dimension ad'hoc confère à l'analyste de ces données un caractère artisanal et donc un statut d'artisan de la donnée. Comme tout artisan, sa sensibilité aux différents outils dont il dispose va lui permettre de mettre en place une stratégie d'analyse de la donnée. Par conséquent le ROI en insights ne peut que dépendre du profil de l'analyste. Aujourd'hui comme hier deux types d'approches sont disponibles pour analyser ces masses de données textuelles : les analyses lexicales et les analyses sémantiques. Notons que c'est le choix de l'analyse qui doit conduire au choix de l'outil et non l'inverse ce qui est malheureusement souvent observé. Les analyses textuelles permettent d'avoir une granularité extrême puisqu'il s'agit ici de décomposer tout un corpus de données en une liste de mots avec leurs occurrences. La stratégie repose donc sur l'agrégation des différentes écritures du mot dans un premier temps. Une fois cette agrégation réalisée la seconde étape consiste à agréger une nouvelle fois ces groupes de mots en groupe de sens, c'est ce que certains appellent la catégorisation.
66
Survey Magazine - Avril 2014
C'est l'étape la plus décisive dans la stratégie d'analyse textuelle en big data. En effet, l'erreur la plus commune consiste à tenter de tout analyser, tout comprendre. Sans stratégie, l'analyse sera longue et les résultats peu opérationnels. L'approche en réalité consiste à chercher la réponse à une thématique particulière. C'est cette thématique qui va aider à définir les mots clefs pour la catégorisation des mots. Certains outils proposent également de rechercher les segments de mots les plus significatifs dans un texte. Ce choix ne doit être guidé que dans le cadre de la thématique recherchée. Une fois la catégorisation achevée, il est possible de réutiliser les nouvelles variables créées (les catégories) avec d'autres types de données quantitatives ou qualitatives pour mener par exemple des analyses multidimensionnelles ou une segmentation. Les reproches les plus importants concernant ces analyses portent sur leurs caractères extrêmement chronophage et technique à tel point que nombres d'entreprises préfèrent le plus souvent externaliser ce travail. Une autre faiblesse généralement constatée dans ces analyses porte sur l'homonymie et la non prise en
compte des doubles négations, du deuxième degré ou plus simplement de l'ironie. En somme, l'analyse textuelle ne peut porter que sur le premier degré d'un discours. Enfin techniquement, il est nécessaire d'avoir un matériel très puissant, ce type d'analyses étant très gourmand en ressource. Les analyses sémantiques consistent à analyser le sens d'un texte et non plus décomposer le texte en mots comme en analyse lexicale. Les outils d'analyse sémantique sont livrés avec des dictionnaires de base qui permettent dės l'acquisition de commencer à travailler. Pourtant, comme en analyse textuelle l'analyste va devoir créer son propre dictionnaire avec son expertise métier. C'est à cette seule condition que l'outil pourra pleinement délivrer son potentiel. Certains outils comme Ethnos permettent de réutiliser les univers de mots pour les réinjecter avec des données quantitatives a des fins d'analyse multidimensionnelle. Souvent, les sociétés sont déçues par les résultats de ces outils après la première analyse. En effet ayant déjà tout analysé après avoir créé le dictionnaire métier, on ne voit pas trop quoi faire de l'outil par la suite. Comme pour l'analyse textuelle, cette
EXPERTISE remarque s'explique le plus souvent par l'absence d'une stratégie d'analyse. Il faut thématiser la recherche pour obtenir des résultats réellement opérationnels. Un autre écueil qui tend à disparaître avec l'amélioration des outils concerne la prise en compte de la double négation. Le principal défaut de ces analyses tient à l'existence d'un pré-requis fort pour les mener : les données textuelles doivent être de bonne qualité = pas d'écriture SMS, peu de fautes autorisées, un texte écrit dans une même langue. Si ces outils fonctionnent assez bien pour une analyse de textes rédigés par des professionnels (extrait de journaux, sites professionnels...) ils fonctionnent beaucoup moins bien concernant par exemple l'analyse de contenus de forums de discussion d'adolescents et plus du tout quand il s'agit d'analyser des forums multilingues. Concernant le big data, les problèmes de traitements de données textuelles sont donc démultipliés : les thèmes des différents inputs sont variés, la qualité des données n'est pas homogène et pour les données provenant d'Internet, l'orthog raphe et le multilinguisme complexifient d'autant le traitement. Mais le plus grand défi concernant l'analyse textuelle en big data réside dans la prise en compte de l'importance du commentaire. En analyse des réseaux sociaux, il est vital de catégoriser les intervenants selon l'influence qu'ils peuvent avoir sur la communauté... Pourtant, bien complexe est cette tâche. Un expert, en effet, peu n'avoir que très peu de réponses à ses commentaires car ils font autorité. De même un individu qui publie un message sans grand intérêt n'aura que
Un nouveau module Quali pour le logiciel Ethnos Soft Concept vient d'intégrer un nouveau module Quali dans Ethnos, le logiciel de traitement d'enquêtes et de reporting leader sur le marché français. Ce nouvel outil permet d'analyser des données textuelles issues de différentes sources et d'intégrer les résultats dans les rapports d'analyse d'Ethnos. Les résultats peuvent également être accessibles de manière interactive sur le web, grâce au module Web-Reports de l'éditeur. Le nouveau module peut prendre en charge et analyser simultanément des questions qualitatives d'une ou plusieurs études, des documents externes dans différents formats (doc, pdf, rtf, txt...) mais également les pages de n'importe quel site web, forum ou réseau social. Dans le cadre d'une approche Big Data, l'outil peut prendre en charge des flux de données en temps réel (emails, réclamations, commentaires...) . De nombreuses formes d'analyses lexicales sont disponibles, avec la possibilité pour l'utilisateur de construire et utiliser ses propres dictionnaires. Les résultats peuvent être affichés sous différents formats graphiques et à l'aide de text-clouds (nuages de mots) de qualité. Pour plus de renseignement, consultez le site de Soft Concept à l'adresse : www.soft-concept.com. peu de réponses. Un propos polémique pourra susciter un grand nombre de réactions sans que son auteur puisse être qualifié d'expert. On le comprend dès lors : si chercher à analyser ce qui a été dit est important, pondérer son contenu par l'influence de son auteur l'est tout autant. Ce principe est capital quand on cherche par exemple à analyser les articles des principaux journaux concernant une marque ou un produit par exemple en regard des réactions des lecteurs et que l'on cherche à analyser par la suite la réaction par journal selon le contenu par article. Mener des analyses de textes à partir de flux de données est extrêmement instructif et délivre souvent des
enseignements qui ne peuvent pas être trouvés via les moyens de collectes d'infor mations usuels (études quanti, quali....). Tout comme une segmentation affinée peut permettre de trouver de nouveaux créneau de niche, une analyse de texte de grand volume peut permettre de trouver de nouveaux insights. Pourtant cette tâche est coûteuse en terme de temps de mise à disposition des données, de traitements et d'analyses. Les écueils sont très nombreux et l'operationnalité des résultats peu garantie selon les méthodologies utilisées. Pour autant, une approche bien réfléchie donne le plus souvent des enseignements inespérés.
17 ans d’expertise au service de la R&D et du Marketing Tests Consommateurs Tests d’usage (efficacité & tolérance) Etudes Quali – Etudes Sensorielles - Etudes Exploratoires Panel national + 30 000 personnes Panels spécifiques (Ethnique – Ados – Enfants – Famille…) Présence dans 25 pays avec plus de 1 000 000 personnes documentées
www.syres.fr
Contact : ana.delemos@syres.fr
Survey Magazine - Avril 2014
67
VEILLE par Pierre Bruneau et Thomas Skorucak pierre.bruneau@orphee.fr
Visites mystère : Dernières innovations et tendances Les entreprises ont depuis bientôt 30 ans recours aux clients mystère pour mesurer la qualité délivrée de leurs équipes commerciales. Cette démarche consiste à envoyer dans les points de vente des « visiteurs mystère » qui jouent le rôle de prospects ou de clients (sur la base de scénarios prédéfinis) pour évaluer les performances des équipes commerciales. Faisons le point sur les innovations et les tendances sur ce marché. Les innovations Les besoins des Directions et des équipes animatrices des réseaux commerciaux connaissent une triple évolution : premièrement, elles sont de plus en plus demandeuses d'outils réactifs et pointus pour mesurer leur attractivité commerciale ; deuxièmement, elles ont des exigences accrues quant aux profils des enquêteurs employés : âge, sexe, CSP, habitudes de consommation, etc. doivent être adaptés afin de correspondre le plus exactement possible au profil de leurs véritables clients ; troisièmement, elles attendent des outils à la pointe de l'évolution technique, ergonomiques, ludiques et performants. L'apparition et la popularisation des Smartphones et tablettes transforment radicalement les pratiques des visites Mystère et ouvrent des perspectives nouvelles. Aux clients mystère traditionnels, ils offrent la possibilité d'une évaluation presque immédiate de la prestation observée : les problèmes liés à la mémorisation de l'environnement, du merchandising ne se posent plus. Ces éléments constituaient traditionnellement une source possible de litige et de contestation, ce n'est désormais plus le cas. La mesure peut-être en outre complétée par la prise d'une photo, ou l'enregistrement audio d'un avis sur sa visite, ce qui apporte un impact et des éléments de preuve qui rendent les résultats incontestables vis-à-vis des équipes. Enfin, les résultats sont traités en temps réel : la Direction peut alors les suivre et mettre immédiatement en place des actions correctives en cas de situations jugées non conformes. Les technologies portables transforment également la pratique des visites Mystère dans la mesure où ils rendent
68
Survey Magazine - Avril 2014
possible la sélection d'enquêteurs « non-traditionnels ». Jusqu'à présent, les visites Mystère supposaient le recrutement et la for mation d'enquêteurs spécifiques. Le briefing incluait des éléments de contexte (comprendre le besoin du demandeur), des consignes techniques complexes (scénario très détaillé, condition de remplissage, compréhension des critères de la grille, etc.), et un profil de client à adopter. Les nouvelles technologies simplifient tous ces aspects de la logistique des études parce qu'ils per mettent l'emploi des véritables clients de l'entreprise évaluée. Le profil des clients n'est plus alors simplement « adapté », il est authentique ; les consignes techniques sont implicitement comprises car elles s'adressent à des habitués dans le cadre d'une prestation qui a réellement eu lieu. Enfin, ils conjurent les éventuelles réticences du personnel évalué quant à la mauvaise réputation des visites mystère. On ne peut plus les suspecter d'être un dispositif de surveillance, par la rupture du couple voir / être vu qu'elles organisaient (le client mystère représentant une possibilité d'observation toujours possible, mais jamais observée), parce qu'elles mobilisent des personnes qui sont avant tout clients, et occasionnellement mystère. Le développement des outils informatiques constitue également une étape essentielle dans l'évolution des visites mystère. La logistique des études permet désormais d'associer les visites mystère à des solutions qualitatives globales, qui rendent compte en intégralité des quatre axes traditionnels de la qualité (qualité délivrée, qualité perçue, qualité voulue, qualité attendue). Certaines entreprises vont jusqu'à mettre en place un véritable Portail Qualité à
destination du réseau ! A partir d'un simple lien internet, une page web propose au réseau et aux animateurs les résultats de chaque outil de mesure de la qualité : les visites mystère, les enquêtes de satisfaction clientèle, les audits sont intégrés dans une vision globale de la qualité. Ce portail interactif permet une approche transversale et le partage des « bonnes pratiques » et donne accès aux actions entreprises par chaque établissement pour améliorer ses prestations, etc. La Direction et les animateurs peuvent ainsi suivre les démarches impulsées par le réseau lui-même : en réduisant les délais de collecte, de traitement et d'exploitation des données, un portail crée de nouvelles opportunités de pilotage des équipes. De fait, les changements initiés par les évolutions techniques suscitent également de nouveaux besoins en t e r m e s d ' a c c o m p a g n e m e n t : l a technicité et la méthodologie des prestations exig ent désor mais l'emploi de profils de plus en plus spécialisés. Les Directions ont ainsi plus systématiquement recours à des animateurs extérieurs, en complément de leurs propres animateurs réseaux, soit pour débriefer directement leur réseau, soit pour former leurs animateurs au débriefing des visites Mystère. Les outils de mesure doivent inciter le réseau à définir des actions pour mieux convaincre et fidéliser les clients ; pour cela des débriefings « à chaud » auprès des responsables d'établissement, des témoignages clients (enregistrements audio juste après la visite mystère), des conseils de consultants spécialisés permettent aux équipes d'analyser les résultats et les enjeux des visites, et d'engager en conséquence les actions qui amélioreront à terme la fidélité et la satisfaction des clients.
VEILLE
La saisie immédiate des évaluations à l'aide d'un smartphone ou d'une petite tablette évitent les problèmes liés à la mémorisation de l'environnement d'achat.
Les nouvelles tendances Les nouvelles technologies induisent de nouvelles pratiques. La tendance générale consiste à insérer les visites Mystère dans des solutions qualité globales. D'une part, la visite Mystère en tant que telle est de plus en plus considérée comme un instrument d'analyse parmi d'autres. Le client mystère multi-canal se développe avec par exemple des appels mystère (en boutique ou auprès du service relation client), des analyses du site Internet, des commandes mystère par mails ou des « leads » mystère. D'autre part, si les visites Mystère avaient auparavant tendance à être considérées comme « l'outil du patron », les nouvelles possibilités d'animation entraînent en quelque sorte une plus grande transversalité managériale de l'outil : désormais,
ce sont non seulement les managers de point de vente qui sont plus directement mobilisés, mais les employés évalués eux-mêmes qui deviennent acteur de leur propre management q u a l i t é ! E vo l u t i o n q u e s e u l e l'intervention de consultants extérieurs, spécialisés dans le débriefing des visites, rend possible. D'un point de vue logistique, les nouvelles méthodes de collecte sont également synonymes d'une consolidation accrue des données. Le degré de fiabilité extrême des visites autorise la mise en place de primes liées aux résultats des visites mystère avec un confort managérial jamais atteint auparavant. Par exemple, des critères fondamentaux, le plus souvent sélectionnés par la Direction, ouvrent droit à une prime s'ils sont respectés réguliè-
rement. Aussi, le gain de temps qu'implique une logistique facilitée permet de coller à l'actualité quotidienne des enseignes ; des visites peuvent être ainsi définies en fonction d'une opération commerciale précise, la mise au point de scénarios peut évoluer en fonction des résultats obtenus en cours d'opération, etc. ! Enfin, la tendance peut-être la plus révolutionnaire consiste aujourd'hui à associer les visites Mystère à des enquêtes de satisfaction « expérience client J+1 » : le lendemain de son passage dans l'entreprise évaluée, le client réel devient le client mystère car il est en mesure de se souvenir des éléments de process dont il a fait l'objet. Cela suppose bien sûr que le questionnaire lui est adressé rapidement (par mail ou par SMS). Cet outil ne remplace pas les visites mystère dans la mesure où les questionnaires ainsi envoyés à de vrais clients ne peuvent avoir le même niveau de complexité et de finesse. La visite Mystère reste donc nécessaire pour mesurer un process précis, selon un scénario prédéfini, mais la complémentarité et la réactivité de la « shopper experience J+1 » offre sans doute une alternative séduisante. Enfin, la tendance générale des visites Mystère à s'insérer dans un dispositif qualité global ne peut manquer d'interroger les acteurs du marché quant à l'évolution que connaîtra l'outil à l'arrivée des Big Data dans les entreprises. Les visites Mystère resteront sans doute nécessaires par la nature unique des données qu'elles permettent de collecter. Reste à savoir comment évoluera leur exploitation.
Survey Magazine - Avril 2014
69
ZOOM
par Valentine Girault-Matz vgirault-matz@ethnosoft.com
Zoom sur un acteur des études
Mais à quoi carbure BrainJuicer ?
« Pour réussir, retenez bien ces trois maximes : voir c'est savoir, vouloir c'est pouvoir, oser c'est avoir » (Musset)
Oser, c'est ce que BrainJuicer, institut d'études londonien a entrepris depuis maintenant 14 ans. Cette entreprise très peu conventionnelle s'est fixé le modeste objectif de ré-inventer les études marketing ! Rien que ça. Et vous savez quoi ? Ça marche, ça buzz, ça clique ! Et BrainJuicer passe aujourd'hui auprès des clients pour un visionnaire. Ses concurrents, eux, le perçoivent comme un trouble-fête, un agitateur mais aussi ... un exemple à suivre. A l'ère du consommateur infidèle et versatile qui déconcerte la recherche marketing classique, BrainJuicer semble avoir trouvé la bonne formule. Celle-ci repose sur les dernières avancées en neurosciences, économie comportementale et sciences sociales, mise en pratique au profit d'une recherche marketing plus ludique et certainement plus humaine et attentive aux émotions et besoins des répondants. BrainJuicer « presse les cerveaux » pour en sortir le jus le plus « goûteux » : des idées lumineuses. Il a développé des « juicy tools », capables de mieux appréhender, comprendre et prédire le comportement des consommateurs. Voyons un peu les fondements de cette démarche originale et plutôt efficace...
70
Survey Magazine - Avril 2014
ZOOM L'approche BrainJuicer L'approche de BrainJuicer est inspirée en partie du travail du prix nobel d'économie Daniel Kahneman, fondateur de l'économie comportementale, qui explique, dans son livre, « Système 1 et 2, les deux vitesses de la pensée », que notre mode de réflexion est composé de deux systèmes. Le système 1 de notre cerveau est rapide, instinctif et émotionnel. A l'inverse, le système deux est plus lent, réfléchi et rationnel. BrainJuicer vise à exploiter ce système 1, c'est-à-dire, le registre des émotions, qui participe au processus de prise de décision du consommateur, et de proposer, ainsi, des méthodes créatives de recherche marketing. « Demander à un consommateur ce qu'il veut est une question qui pourrait rester sans réponse, mais lui demander ce qu'il ressent est beaucoup plus utile » précise Tom Ewing, directeur des contenus de BrainJuicer. La première question fait appel au système 2, elle pousse le consommateur à entamer une réflexion sur les produits et services, action que ce dernier n'effectuera jamais lors d'un processus d'achat. C'est dans cette optique que BrainJuicer a inventé un procédé (le System 1 Pack Test) qui permet de placer le consommateur dans un réel contexte de prise de décision, c'est-à-dire conditionné par une contrainte de temps, afin de s'assurer qu'il sollicite son système 1 pour choisir ses réponses. Vous trouverez des précisions sur cet aspect dans notre article sur la Gamification des études marketing (contextualisation des questions).
Les idées sont la clef du succès : détecter les insights Afin de connaître de manière approfondie le comportement des consommateurs, BrainJuicer a développé plusieurs outils de recherche très ingénieux, axés sur les dernières technologies digitales : La mise en place d'une communauté en ligne, la Juicy Brains Community : jusqu'à 100 consommateurs fortement impliqués et motivés sont rassemblés autour d'un intérêt ou d'un projet spécifique d'une entreprise, sur une plateforme digitale. L'entreprise peut, à tout moment, prendre part à la conversation, donner son avis, tester des idées ou des concepts. Ces interactions permettent de déceler des insights et fournir les éléments essentiels pour une stratégie marketing réussie. La recherche en ligne via les réseaux sociaux : BrainJuicer a mis sur pied une nouvelle génération d'outils qui en exploite toute la richesse. Digividual est un chercheur robotique programmé pour représenter un type particulier de personne. Il va permettre d'identifier, à travers les informations récoltées (images, blogs, vidéos) sur les réseaux sociaux, les histoires des utilisateurs correspondant à ce profil et va pouvoir déterminer les envies, les frustrations, les modes de vies de ce profil.
L'analyse par les émotions « En plaçant l'émotion au cœur de nos méthodes de recherches, nous avons identifié les vecteurs clés d'efficacité d'une publicité, ce qui permet de la rendre virale ». Pour développer ce concept, BrainJuicer a inventé un outil novateur FaceTrace Technology qui permet d'analyser les expressions du visage. Le procédé consiste à
© BrainJuicer
Les visages de l'émotion dans la méthode ComMotion de BrainJuicer faire sélectionner au consommateur, parmi sept visages, celui qui correspond le mieux à l'émotion ressentie, à un instant T, vis-à-vis d'une publicité. Ces visages ont été dessinés à partir du travail de Paul Ekman, psychologue américain du 20ème siècle, pionnier dans l'étude des émotions, qui en a décrypté les codes dans les moindres détails. Il est à l'origine de ces sept expressions : le bonheur, la peur, le dégoût, la surprise, le mépris, la tristesse, et la colère. Universellement reconnaissables, ces expressions permettent ainsi de recueillir des données justes et de pouvoir les comparer entre différents marchés. A l'aide de questions ouvertes, BrainJuicer peut ainsi mesurer ce que ressentent les consommateurs, la force et les raisons de ce ressenti, ce qui permet ainsi de pouvoir prédire la réussite commerciale d'une publicité. Cette méthode a permis d'aller un peu plus loin en créant SatisTraction, un outil capable de mesurer en temps réel l'expérience client, grâce au déploiement de l'application sur tablette et smartphones. Le client, peut, à l'aide de Mindreader décrire ses émotions et les comparer avec celles des autres.
Identier les “SpringSight” Identifier et valider les insights les plus puissants, c'est possible. Pour cela, BrainJuicer a mis en place un outil adhoc, FaceTrace Technology, en le combinant à un ensemble de diagnostics validés pour mesurer l'impact et le ressenti émotionnel de chaque insight. L'insight doit récolter un score suffisamment élevé sur ces deux critères pour être considéré comme un insight capable de créer un avantage significatif pour la marque. MindReader permet de détecter auprès des répondants pourquoi un insight fonctionne plus qu'un autre. « Market research industry WAKE UP! » « Ce qui manque le plus dans les études de marché ? Leur Survey Magazine - Avril 2014
71
ZOOM but essentiel : l'inspiration et la conduite de projets innovants » déclare John Kearon, PDG et « Chief Juicer ». BrainJuicer a compris qu'il fallait innover et s'adapter, les autres instituts d'études ayant plutôt tendance à « consolider leurs acquis pour limiter les risques ». Mais pour innover et dégager les meilleures idées possibles, ils acceptent de se tromper. « Nous pensons que les plus grands succès, les solutions les plus novatrices s'obtiennent grâce à une expérimentation permanente. Alors on teste, on explore, on cherche. On accepte de se tromper, mais alors on recommence à tester jusqu'à ce que nous réussissions à créer des méthodes de recherche très originales qui fournissent des insights puissants et efficaces. » Cette vague d'innovations appliquée à la recherche marketing a séduit et continue de séduire un grand nombre de marques. En effet, BrainJuicer compte déjà 229 clients renommés, dont 16 des plus gros consommateurs d'études marketing. Et les prix pleuvent sur cette agence londonienne. Cette année et pour la 3ème fois, BrainJuicer a été désigné comme l'institut le plus innovant par le GRIT (Greenbook Research Industry Trends Report). En 2013, John Kearon, a été récompensé d'un NGMR Disruptive Innovator Awards qui met à l'honneur des entreprises et des personnes qui ont fait preuve d'un leadership exceptionnel et qui ont contribué à faire avancer le secteur de la recherche. Les congrès Esomar sont toujours un grand succès pour BrainJuicer : en 2005 et 2007, l'institut est distingué à deux reprises pour le « Meilleur article méthodologique ». En 2012 il reçoit le prix du « Best paper overall » pour « A wolrd without questions » rédigé par Tom Ewing, également gagnant en 2013 du « Esomar excellence award for the best paper ». Alors, la méthode BrainJuicer, on y goûte ? Pour plus d'informations, rendez-vous sur le site de BrainJuicer, http://www.brainjuicer.com/, qui vaut le coup d'œil. Comme vous le découvrirez, il s'agit d'une plateforme web complètement gamifiée, à l'image du génie de cette entreprise. Retrouvez le classement établi par BrainJuicer, grâce à leurs outils, des 50 publicités les plus efficaces et émotionnelles sorties aux Etats-Unis en 2013 à l'adresse : http://feelmore.brainjuicer.com/feelmore 50/.
Sites
http://question-science.blogspot.co.uk/ Comment engager et impliquer le répondant dans vos enquêtes ? Retrouvez des idées et conseils dans le blog de Jon Puleston, Vice-President Innovation à GMI. Il vous donnera les clés pour construire des questionnaires vivants, pour impliquer vos sondés et générer un meilleur feedback. Il explore et identifie les dernières avancées et techniques dans les études en ligne.
http://www.christophe-rebours.com/ Les articles n’y sont pas les plus réguliers, mais les sujets traités ont rapidement soulevé notre intérêt comme celui-ci : « Observons ! Et bâtissons un nouveau monde des études clients ». L’auteur, Christophe Rebours nous laisse donc un peu sur notre faim, on en veut plus ! On reste à l’écoute et on vous invite donc à faire de même.
http://francoisabiven.blogspirit.com/ Davantage orienté études, le site du pdg de l’institut d’études Repères partage son expertise via ses articles. Par la même occasion, il nous prévient des événements et de l’actualité du secteur.
72
Survey Magazine - Avril 2014
RESSOURCES
& Blogs
http://www.marketing-strategie.fr/
http://www.scoop.it/t/big-data-marketing
A l’aide d’une régularité appréciable, Géraldine Benoit Cervantes et Nathalie Van Laethem publient de nombreux articles. Le marketing est à l’honneur et il est traité de toutes les façons : exemple de stratégies, actualités, outils, méthodes…
Sur scoop.it, le journal de Christophe Cousin est dédié au Big Data. Il y cumule une base d’articles traitant de ce sujet qui se trouve aujourd’hui au centre des préoccupations. Créateur et dirigeant de la société « Camp De Bases », il nous partage ici sa veille d’expert sur le sujet.
http://kozinets.net/ Le sujet favori de ce blog est de loin la Netnographie. Logique, c’est son auteur Robert V. Kozinets qui a inventé le terme ! Quoi de mieux que d’aller directement à sa source pour mieux en comprendre son intérêt. Cette nouvelle méthode de recherche marketing est ici expliquée et détaillée sous tous ses angles. Robert V. Kozinets, diplômé d’un MBA, est un expert en réseaux sociaux, en recherche marketing et en stratégie de marque. Il a souvent été récompensé pour la qualité de ses travaux en étant publié dans des journaux de renom tel que le New York Times. Aujourd’hui il est chercheur et enseignant en marketing à l’université de york à Toronto.
http://www.lelbblog-etude-qualitative.com/ Si vous cherchiez un blog qui passe en revue les études qualitatives à travers de nombreux sujets, venez faire un tour ce celui-là : des astuces pour faire participer les adolescents aux études qualitatives en ligne aux outils à utiliser pour animer vos communautés d’études, Laure Boisier nous dit tout. Elle, qui y rédige la majorité des articles est aussi la fondatrice de l’institut d’études Lb Qualitative Research et anime des conférences dans le monde entier.
http://sensduclient.blogspot.fr/ http://brianjuicerblog.wordpress.com/ Le blog de BrainJuicer ! Retrouvez toutes les news et idées lumineuses de BrainJuicer sur ce blog tenu à jour par Tom Ewing, Director Content de l’institut londonien.
La relation client est un bien vaste sujet, Thierry Spencer nous le prouve à travers la multitude d’articles publiés sur son blog. Il y parle des nombreux avis clients toujours plus nombreux grâce à internet, et aussi des centres d’appel ou encore de la génération Y qui oblige les professionnels à se renouveler sans cesse. Survey Magazine - Avril 2014
73
RESSOURCES
Livres The Gamication Revolution
Gabe Zichermann Editeur : McGraw Parution : Mai 2013 256 pages
Comment les leaders utilisent les mécanismes du jeu pour écraser la concurrence ? La Gamification est la nouvelle stratégie en vogue, et pour de bonnes raisons, c’est un moyen de créer un engagement sans précédent avec ses salariés et consommateurs. Ce livre vous livre les clefs de la mise en œuvre de la Gamification.
Online Panel Research: A Data Quality Perspective (Wiley Series in Survey Methodology)
Mario Callegaro, Reginald P. Baker, Jelke Bethlehem, Anja S. Göritz, Jon A. Krosnick, Paul J. Lavrakas Editeur : Wiley-Blackwell Parution : Mars 2014 600 pages
Richard B. Chase, Sriram Dasu Editeur : McGraw-Hill Parution : Juin 2013 288 pages
Les 10 dernières années ont vu se modifier profondément les études marketing avec la généralisation d'internet. Au même moment, les panels en ligne se sont développés et ont été rapidement adoptés par de nombreux instituts d'études et annonceurs. Pourtant, la question de la qualité des données récoltées par ce biais a rarement été soulevée. Cet ouvrage propose d'examiner attentivement la qualité des données des enquêtes menées en faisant appel à des échantillons en ligne.
Customer Knowledge Management: Leveraging Soft Skills to Improve Customer Focus
Soumit Sain, Silvio Wilde Editeur : Springer International Publishing AG Parution : Avril 2014 280 pages
The Customer Service Solution: Managing Emotions, Trust, and Control to win your customer's Business
La relation clients est un des grands défis d'aujourd'hui pour les sociétés. Pour le réussir, les entreprises doivent connaitre leurs clients et identifier clairement leurs besoins. Ce livre présente la corrélation entre la connaissance client et le ciblage de sa clientèle. Les auteurs promettent de nous donner des conseils pratiques pour optimiser notre connaissance clients.
The Big Data-Driven Business: How to Use Big Data to Win Customers, Beat Competitors, and Boost Prots
Russel Glass,Sean Callahan Editeur : John Wiley & Sons Inc Parution : Novembre 2014 256 pages
Mélanie Hossler, Olivier Murat, Alexandre Jouanne Editeur : Eyrolles Parution : Mai 2014
74
Survey Magazine - Avril 2014
Faisons-nous réellement face au Big Data ou est-ce simplement un effet de mode relayé de toute part ? Dans une société où le client est au cœur de la stratégie des entreprises, il apparaît impératif que la connaissance client soit la plus précise possible. Et le Big Data serait la clé pour y parvenir. Quelles transformations sont nécessaires pour y arriver ? Comment certaines grandes sociétés ont déjà intégré le Big Data à leur stratégie ? L'ouvrage promet de nous éclairer.
From Big Data to Smart Data: The Strategic Route to Deeper Customer Insight Paperback
Faire du marketing sur les réseaux sociaux Les réseaux sociaux sont aujourd’hui devenus un axe de communication incontournable pour les entreprises. Twitter, Facebook, Youtube… sont devenus un outil riche d’informations et un outil puissant de visibilité et de fidélisation. Mais construire une bonne stratégie social media nécessite de connaître les règles de base, une bonne compréhension des enjeux et une réelle maitrise des outils.
Vous voulez savoir les éléments qui guident vos consommateurs dans leurs achats ? Vous le pouvez ! Dans le contexte économique actuel, les consommateurs sont très critiques et exigeants. Il est nécessaire de comprendre ce que votre client pense et ce qu'il ressent. Les dirigeants des entreprises ne peuvent plus se permettre de négliger les principes psychologiques qui guident la satisfaction client et la fidélisation à long terme. Richard B. Chase et Sriram Dasu ont écrit ce guide révolutionnaire et vous exposent les facteurs qui déterminent vraiment la satisfaction client et les clefs pour l'améliorer.
Colin Strong, Stuart Crawford-Browne Editeur : Kogan Page Parution : Juin 2014 272 pages
Entre tweets, likes, commentaires, blogs, vidéos et images, les consommateurs génèrent plusieurs milliards d'octets de données par jour. Comment les sociétés peuvent-elles utiliser ces données, dont la quantité continue de croître, afin d'augmenter leur connaissance client ? Ce livre propose des méthodes pour interpréter et intégrer ces informations dans sa stratégie marketing. Les auteurs promettent d'orienter les entreprises pour les aider à améliorer leurs relations clients, leurs ciblages, et bien d'autres actions marketing.
Survey Magazine - Avril 2014
75
Les technologies mobiles ouvrent des perspectives formidables pour la collecte de données sur le terrain. Nous avons développé la solution optimale pour exploiter facilement et pleinement ce potentiel.
mobisurvey
Solution disponible pour tablettes et smartphones Androïd et iPhone/iPad.
une nouvelle ère pour les enquêtes Il y a quelques années, le Web a révolutionné le recueil de données. Le logiciel Net-Survey a permis depuis, à des milliers d’utilisateurs, de concevoir et diffuser facilement des enquêtes et des formulaires web et Intranet. Aujourd’hui, les technologies mobiles ouvrent une nouvelle ère, en offrant des possibilités extraordinaires : instantanéité, portabilité extrême, ergonomie et facilité d’utilisation, communication en temps réel, liaison avec des bases de données, localisation gps, capture multimédia (photos, sons, vidéos, codes-barres, signatures...), etc. Les applications envisageables sont innombrables dans les domaines du marketing et des études, du commercial, de la qualité, de la sécurité, de l’audit et inspection, de la logistique, de l’organisation, des ressources humaines, de la formation, du SAV, et dans bien d’autres domaines...
www.soft-concept.com 71 cours Albert Thomas - 69447 LYON Cedex 03 Tél : 04 78 54 64 00 - Fax : 04 72 33 19 91
76
Survey Magazine - Avril 2014