SURVEY LA PREMIÈRE REVUE DÉDIÉE AUX ÉTUDES & RECHERCHES EN MARKETING
MAGAZINE
>> NOUVELLES TECHNOLOGIES ET MÉTHODOLOGIES D’ENQUÊTES
Réf. - 0400U - Avril 2013
Applications L'utilisation des réseaux sociaux dans vos études
DOSSIER TECHNOLOGIE D’ENQUÊTES
La révolution des enquêtes mobiles Décryptage
Le BIG DATA sonne-t-il le glas des études marketing ?
Techniques De l'importance de l'image dans les études marketing Pratique Comment améliorer votre visibilité sur le Web ?
Outils : Neuromarketing Dans la tête du consommateur
pour Windows XP, VISTA, SEVEN et Windows 8
s e u q sti i t a t S
Découvrez
Web-Reports Créez et publiez en quelques clics des applications dynamiques d'accès aux résultats de vos enquêtes, baromètres, tableaux de bord...
www.soft-concept.com
SOMMAIRE APPLICATIONS
EDITO
31 Réseaux sociaux, le nouvel eldorado
ACTUALITES 6 9
de la recherche Marketing ?
Echos du Marketing et des études
TECHNIQUES
La guerre des salons n'aura plus lieu
36 De l'importance de l'image dans les études marketing.
REPERES 10 Les instituts d'études et l'export 11 Chiffres repères
DECRYPTAGE 39 Le Big-Data sonne-t-il le glas des études marketing ?
OUTILS 12 Neuromarketing : Dans la tête du consommateur
PRATIQUE 46 10 trucs infaillibles pour rater vos questionnaires 48 Améliorez votre visibilité sur le Web
DOSSIER
17 La révolution des enquêtes mobiles 18 19 20 21 24 26
RESSOURCES
Après le CAWI, le CAMI Les avantages distinctifs de l'enquête mobile Les types d'enquêtes mobiles
52 Sites et blogs à part 54 Livres à la une
Les 4 phases de l'enquête mobile
Téléchargez gr et retrouvez atuitement notre applic tablette ou Survey-Magazine sur ation smartphone vo Apple ou A tre ndroid
Quel matériel choisir pour vos enquêtes mobiles ? Guides Esomar des bonnes pratiques
SURVEY MAGAZINE
REDACTION : 04.78.54.64.00 - contact@surveymag.eu Directeur de la publication : Gérard Danaguezian Ont collaboré à ce numéro : Sébastien Aurionnaux, Daniel Bo, Marion Clairet, Laurent Conroux, Stéphane Daubignard, Hélène Guinand, Kévin Touati Illustrations : Shutterstock Si vous souhaitez apporter, dans les prochains numéros, des informations ou un éclairage particulier sur le métier des études et les nouvelles technologies et méthodologies d’enquêtes, n’hésitez pas à contacter la rédaction. Encarts publicitaires : renseignements et tarifs au 04.78.54.64.00 ou par mail à l'adresse pub@surveymag.eu
Numéro imprimé à 7.000 exemplaires Ce magazine est réalisé sur du papier “Inapa Oxygen Silk” de composition 100% écologique, fabriqué à partir de 60% de fibres recyclées et 40% de pâte certifiée FSC*. Cette nouvelle génération de papiers éco-responsable est résistante au vieillissement (norme ISO 9706), et est issue des sites de production certifiés ISO 9001 et ISO 14001 (norme internationale de management environnemental). *FSC - Forest Stewardship Council : FSC est une organisation international à but non lucratif qui encourage de manière constructive les initiatives de gestion forestière socialement, écologiquement et économiquement responsables, en les rendant visibles et crédibles par un label apposé sur les produits issus de forêt certifiées.
Appstore
GooglePla y
Sociétés et organismes cités dans ce numéro : (entre parenthèses, page(s) de référence) AB-InBev (8) Adetem (9) AdGooroo (7) Adobe (42) Alexa (48/49) Amazon (40/42/43/49) Apple (18/23/24) Arcane Research (16) Archos (25) Armand Colin (54) Asus (24/25) Athlane (8) Atlantic (37) Aufeminin (37) Axe & Cible (38) B-ecommerce (9) Bing (48/51) BrightHouse (15) CCM Benchmark (18) Coca-Cola (12/15/51) Coface (10) COHDA (8) Dataveyes (37) Dell (23) Domino's Pizza (52) Dunod (55) EDinstitut (35) Elenbi Editeur (55) E-Marketer (18) Empresarial (9) Erai (10) Ericsson (18) Esomar (9/11/27/44) Esperformance (51/8)
Eternal Spiral Book (54) Euler Hermes (10) Eurofins (49) Eyrolles (54) Facebook (32/33/34/40/42/51) Gap (12) Gartner (18) GfK France (6) Glowbl (35) Google (24/25/32/34/39/40/42/43/44 /48/49/50/51) Guardian (37) Hiving (9) HP (23) HTC (25) IBM Watson solutions (40) IBM (42) Ifop North America (8) Ifop (8) IME (14) INC (14) INIT (52) INSEE (37) Instagram (32) Institut BVA (7) Institut de Médecine Environnementale (14) Institut de NeuroCognitivisme (14) Intermarché (52) Ipsos Benelux (8) Ipsos France (8) Irep (9) Jdscenter (53) Kantar Media (7)
Klout (49) LG (25) LinkedIn (32/33/34/42/51) Listen s.a (30) Market Research (53) McKinsey (43) Mdirect (9) Microsoft (42/52) Millward Brown (6) MMRA (27) Mobile Marketing Research Association (27) Mobile Research Conference (53) Neurofocus (12) New York Times (37) NFO-Infratest France (8) Nike (51/52) Occurrence (52) ONU (43) Oseo (10) PagesJaunes (38) Pascaleo (15) Plebicom (35) Publicis (52) QualiMarket (29) QualiQuanti (36/38/52) Research Compass (6) Samsung (25) Semo (9) Soft Concept (2/14/20/21/23/52) Sony (23/24) SPSS (40) Symetris (41) Syntec (9)
Tarsus France (9) TestConso.fr (36) TNS (37) Tribecca (52) Tropico (52) Twitter (32/34/40/51) Ubi France (10) UDA (9) Viadeo (32/33/34/51) Vision Critical University (44) W5 (53) Wikipédia (48) Wired (39/43) Womenology.fr (37) Woorank (49) Yahoo (40/48) YouTube (34/40)
Les marques et noms de sociétés cités dans ce magazine appartiennent à leurs propriétaires respectifs.
Survey Magazine Avril 2013
3
le , y e v
ér o 1 des lo m u gi n A+A
HEALTHCARE MARKETING RESEARCH
- ABSYL FRANCE - ACTION MUNICIPALE - ADEPALE -
cie ls
d’
ET -S u
DE L'INFORMATION SUR L'HOSPITALISATION - AGENCE WALLONNE DES
ê qu en
@ r
AD'HOC - ADVANCIA - AECOM - AFC - AFNOR - AGENCE TECHNIQUE
TÉLÉCOMMUNICATIONS - AGENCES RÉGIONALES DE L'HOSPITALISATION - AGICOM
- AIR FRANCE - AIR LIQUIDE - ANTEA - AON CONSEIL & COURTAGE - APEC - APRIA RSA -
APTARGROUP - AQUITAINE EUROPE COMMUNICATION - ARA RESEARCH INTERNATIONAL -
CONSEIL - BULGARI TIME - CAISSES D'EPARGNES DE MIDI-PYRENEES - CARLSON WAGONLIT TRAVEL -
CASTORAMA - CATHARSYS CONSULTING GROUP - CCI DU HAVRE - CCMSA - CEMP - CEN BIOTECH - CFCE - CHU LIMOGES - CIN ST MANDRIER - CINQ SUR CINQ - CLINITEX - COHESIUM ETUDES - COMMUNAUTE D'AGGLOMERATION DE
ST QUENTIN EN YVELINES - COMPASS GROUP (UK, BELGIUM, NEDERLAND…) - CONSEIL D'ETAT - CPAM DE LA SOMME CRAMIF - CRÉDIT LYONNAIS - DANONE VITAPOLE - DATAMATIQUE - DDSC - DECEMBER - DEDICATED RESEARCH -
DEDUCTION - DELHAIZE GROUP - DEVISE - DHOS - DIRECTION DE LA DEFENSE ET DE LA SÉCURITÉ CIVILE - DISTRIBUTION
CASINO FRANCE - EB CONSULTING - ECOLE CENTRALE PARIS - ECOLES DES MINES (ALES, DOUAI) - ECUREUIL MULTICANAL -
ED INSTITUT - EDHEC - EDIPRESSE PUBLICATIONS SA - EFICIENS - ELIOR - EMERSYS - ENSICA - ENST DE BRETAGNE -
EUROCONTROL - EXAFIELD - FÉDÉRATION NATIONALE DE LA MUTUALITÉ FRANÇAISE - FEVAD - FNAC - FOURNIER - FRANCE TELECOM - FROMAGERIES BEL - GB ETUDES & CONSEIL - GC2I BANQUE POPULAIRE - GIE AXA FRANCE - GIE ECUREUIL
en ligne
Ils utilisen
ASSOCIATION ICI OU AILLEURS - ATMOSPHERES - AVENTIS CROPSCIENCE - AXA CORPORATE SOLUTIONS -
AXA FRANCE SERVICES - AXE ET CIBLE - AXES ET CIBLES - BANQUE PALATINE - BELRON - BIO'SAT - BLET
te s
tN
ARCELOR TECHNOLOGIES - AREMEDIA - ASSEMBLEE DES DEPARTEMENTS DE FRANCE -
MULTICANAL - GL EVENTS - GMV CONSEIL - GOLDFARB CONSULTANTS - GROLIER INTERACTIVE EUROPE - GROUPE LEBER GROUPE MONITEUR - GROUPE VISUAL - ICM - IFP - INSA DE LYON - INSA DE RENNES - INSA DE ROUEN - INSEP CONSULTING INSTITUT URBAIN DE L'ENVIRONNEMENT - INTEGRAL CONSEIL - INVIVO - IRA DE LILLE - ISEP - ISTA - IUT DE ST DENIS - JOEL BIENNE CONSEIL - KOMPASS FRANCE - K-TEST - LA POSTE - LVMH - M6 WEB - MAJOR CONSULTANT - MARINE NATIONALE MARKET AUDIT - MEDIADIXIT - MEDIAPANEL RTL 2 - MEDSYN - MGFORM - MINISTERE DES SOLIDARITES, DE LA SANTE ET DE LA FAMILLE - MKT CONSEIL - MONDIAL ASSISTANCE - MUTUALITE SOCIALE AGRICOLE - NESTLE - NEWCASE - NEWMAN NRJ - OBSERVATOIRE DE L'ECONOMIE ET DES TERRITOIRES - OFFICE DE L'HABITAT SOCIAL D'ALFORTVILLE - ONET SERVICES - ORACLE - ORGASYS - ORPHEE - OXO CONSULTING - PAGES JAUNES - PASCALEO - PLANETE MARKETING - PLEON CM&O - POLYCONTACTS - PROCESS'COM - QUALIMARKET - QUALI TEST - RADIO FRANCE INTERNATIONALE - RADIO SPARES - RATP - RC&A - RHODIA SERVICES - RICOH INDUSTRIE FRANCE ROYAL CANIN - RVI - SAGEM SECURITE - SAN DE ST QUENTIN - SIEMENS - SILOGIC - SNCF - SPADE CONSULTING - SYNDICAT NATIONAL DES ENSEIGNEMENTS DE SECOND DEGRÉ - SODEXO STIB - SWETS BLACKWELL SA - TELEPERFORMANCES (NORD, RHONE-ALPES, SUDOUEST) - TELOR - TF1 - THE ACHIEVEMENT CENTER INTERNATIONAL - TOCQUE -
les Modu sifs exclu
TOPONLINE - TOTAL FRANCE CAMPUS - TOWERS PERRIN - UBIFRANCE - UNIVERSITÉS (ANGERS, BRETAGNE, VALENCIENNES…) VIGIE PHARMA - VITALIS CONSULTING YACAST FRANCE ...
Lo
cal survey
E
ye tracke
r
e Sh
lf simulato r
Ad rating
Merci de cliquer sur les 3 zones qui attirent le plus votre attention :
Premier système de saisie délocalisée d’enquêtes en ligne en mode déconnecté
Module d’évaluation de supports visuels (pubs, ...)
Module de simulation de choix de produits en rayon
Module d’évaluation de séquences vidéo ou audio
La nouvelle génération de logiciels d’enquêtes et de reporting Démos et renseignements au 04.78.54.64.00 ou sur www.soft-concept.com
Edito
Gérard DANAGUEZIAN gdanaguezian@ethnosoft.com
La mort du Market Research ? On sentait bien depuis quelques années que quelque chose ne tournait pas rond dans le monde de la recherche marketing. On voyait bien que malgré des méthodologies de plus en plus carrées, les études n’arrivaient pas à résoudre la quadrature du cercle d’un consommateur volage aux comportements fragmentés, déstructurés et de plus en plus imprévisibles. Après des années de tâtonnement, il se pourrait qu’une issue soit en vue. Il se pourrait même qu’il y ait une deuxième issue, plus radicale celle-là. La première tient à la manière d’accéder au consommateur. On cherche désormais des interactions plus rapides, au plus près de la réalité des cibles concernées. Le théâtre de la recherche marketing tend ainsi à se libérer de la règle des trois unités de lieu, de temps et d’action. C’est le cas avec les enquêtes mobiles qui sont en train de s’imposer dans le paysage. A notre sens, et au vu de leurs apports considérables que nous détaillons dans le dossier de ce numéro, il est certain qu’elles prendront très vite le pas sur les méthodes d’enquêtes traditionnelles. C’est également le cas de la recherche marketing qui fait appel aux réseaux sociaux et que nous évoquons aussi. Cette démarche ouvre des perspectives immenses et promet des interactions plus rapides, plus simples et plus authentiques avec un nombre croissant d’interlocuteurs. Dans les deux cas, le lieu et le moment n’importent plus. L’action peut être multiple et prolongée. Le contenu qui peut être remonté est plus riche, plus varié et finalement plus pertinent.
On a évoqué une deuxième issue aux tourments des gens d’études. Il faut peutêtre parler d’issue fatale puisqu’elle signerait véritablement l’arrêt de mort de la recherche marketing. Les coupables s’appellent Neuromarketing et Big Data. Leur point commun est de chercher à terme à se passer du consommateur et de donner des orientations plus précises à l’action marketing sans qu’aucune personne n’ait été interrogée. Mais alors que le Neuromarketing est encore lié aujourd’hui à des observations individuelles de personnes, le Big Data promet, lui, de ne travailler que sur des montagnes de données pour diriger l’action de l’entreprise. Dans cette logique, il ne sert plus à rien de comprendre les consommateurs, puisqu’il suffit de constater très vite leurs comportements et d’ajuster tout aussi vite les actions conséquentes. Si ces méthodes et notamment le Big Data arrivent, dans les années à venir, à tenir leurs immenses promesses, la recherche marketing ne sera pas la seule à disparaître. C’est toute la science telle que nous la concevons depuis plusieurs siècles qui disparaîtrait. Certains l’annoncent déjà. Mais nous pouvons encore raisonnablement espérer que malgré tous les automatismes et les algorithmes, la véritable inspiration qui fait toute la différence continuera à venir du « Pourquoi » plutôt que seulement du « Quoi » ou du « Comment ».
Survey Magazine Avril 2013
5
ACTUALITES
Echos du
MARKETING & DES ETUDES Millward Brown s'installe en Birmanie
Le congrès 2013 de l'ESOMAR se tiendra à Instanbul C'est la ville d'Istanbul qui a été choisie pour accueillir le 66ème Congrès ESOMAR qui se tiendra du 22 au 25 septembre. Carrefour entre l'Est et l'Ouest, cette métropole énergique, mélange de traditions et de modernité, est le lieu idéal pour une industrie mondiale afin de penser grand et déterminer son avenir. L'objectif de cette édition 2013 est de faciliter les échanges sur le changement profond dont est l'objet la profession et mettre en évidence les facteurs de son renouveau de long en large. En effet, la recherche marketing et le social media marketing sont à la croisée des chemins. Alors que les méthodes classiques sont encore largement utilisées, chaque jour de nouvelles méthodes apparaissent résultantes de l'utilisation de plus en plus répandue d'Internet et des technologies mobiles qui favorise toujours plus l'instantanéité de la collecte des données. L'identification des modes de compréhension et des opportunités est aujourd'hui décuplée par la veille des contenus récupérés sur les réseaux sociaux. Alors que certaines des nouvelles solutions ont le potentiel de fournir des indicatifs plus rapides et plus précis que jamais, d'autres ne mènent à rien. La seule certitude valable sur l'avenir du métier, c'est le changement (thème décidément à la mode !). Informations détaillées et enregistrement sur http://www.esomar.org. 6
Survey Magazine Avril 2013
Millward Brown, l'un des acteurs majeurs dans le domaine des études d’évaluation de marque et de communication, a décidé d'ouvrir un bureau au Myanmar (Birmanie) au cours du premier trimestre 2013. Déjà actif au Myanmar, l'institut veut établir une présence permanente dans un pays qui s'ouvre au monde après des décennies de dictature et d'autarcie. La nouvelle structure sera dirigée par Lyndal Pearce qui a déjà travaillé pendant plus de 10 ans dans ce pays en tant que co-fondateur de Research Compass. Pour Gonzalo Fuentes, directeur général de Millward Brown Asie du Sud-Est, il est clair que le Myanmar va être un grand moteur de croissance pour les clients et une présence dans la région permettra de mieux répondre à leurs besoins. Créé en 1973, Millward Brown a déjà implanté 88 bureaux dans 58 pays et réalise des études dans plus de 70 langues. Le bureau parisien est installé depuis 1991 et compte une centaine de collaborateurs.
GfK combine le mystery shopping et les panels Le département Mystery Shopping de GfK France vient d'annoncer le lancement de « GfK InStore Experience », une solution qui combine les données issues des Visites Mystère réalisées par les enquêteurs GfK avec des données provenant du panel distributeurs de GfK Consumer Choices. L'objectif est de fournir aux entreprises clientes une véritable mesure des leviers de performance permettant de générer des ventes incrémentales en magasin. Pour cela, la démarche consiste à envoyer des enquêteurs mystère en magasin, en suivant un scénario défini puis de comparer les données ainsi recueillies et traitées avec les données de ventes du panel distributeur GfK. La mesure des corrélations entre les deux sources d'informations permet, entre autre, de mesurer le gain de parts de marché de la marque quand les vendeurs l'ont bien mise en avant dans leur argumentation commerciale ou de mesurer l'effet positif sur les ventes par type d'argumentation, par exemple quelle caractéristique technique d'un produit a le plus de répercussions sur les ventes. A titre d'exemple, GfK a mené une expérience dans le secteur des PC portables. Ainsi, alors que la majorité des vendeurs d'enseignes spécialisées mettent en avant les caractéristiques techniques comme la taille du disque dur (55%) dans leur argumentation, c'est un argument qui n'a que très peu d'effet sur la décision d'achat (+2% de ventes additionnelles). Au contraire, les critères de légèreté, de prix, de taille et de qualité d'écran, relativement peu mis en avant dans l'argumentation, sont ceux qui influencent le plus les clients et qui génèrent donc le plus de ventes incrémentales (plus de 7% pour les arguments « légèreté » ou « prix »). Pour Ludovic Dalle, Directeur du département Mystery Shopping : « Cet outil Instore Experience combine différentes expertises GfK et apporte ainsi une aide précieuse aux fabricants et distributeurs pour mesurer précisément l'efficacité et l'utilité de leurs actions en magasin, notamment grâce au calcul de leur retour sur investissement. » L'anonymat des informations magasins/enseignes est garanti. Seules des informations statistiques issues de ce rapprochement sont fournies.
ACTUALITES
BVA lance BVA Studio L'institut BVA vient de présenter BVA Studio, une cellule interne dédiée à la vidéo. Avec cette nouvelle structure, BVA a pour objectif d'enrichir son approche qualitative en regroupant l'ensemble des compétences en matière de recueil ethno-vidéo (entretiens filmés, micro-trottoir, web TV, auto-reportages de consommateurs sur mobile), analyse de l'image (corpus photo, vidéo, web …) et restitutions multimédias (montage de films pour s'approprier les résultats d'études). En s'appuyant sur cette boîte à outils intégrée et sur leur savoir-faire technique et analytique, les consultants quali peuvent parcourir différentes focales d'investigation, en fonction des problématiques des clients. Supporté par une infrastructure dédiée (serveurs, bancs de montage, interfaces clients…), BVA Studio offre à ses clients un accès simplifié à des designs d'études innovants ainsi qu'à des formats de restitution vidéo stimulants.
Kantar Media lance en France une veille du paid search Kantar Media avait acquis fin 2012 la société AdGooroo, spécialiste américain de la veille des médias numériques, dans l'objectif d'appréhender de manière plus exhaustive la mesure du digital. Aujourd'hui, la division Ad Intelligence en France annonce qu'elle intègre déjà l'estimation des investissements SEA (Search Engine Advertising). Cette mesure, basée sur un modèle statistique résultant de plusieurs sources de données, permet d'évaluer les investissements en référencement payant par annonceur, par secteur et par mot-clé. Des indicateurs précieux tels que la couverture, la position, le CPC ou encore le taux de clic peuvent être obtenus, afin de connaître avec précision le comportement des acteurs d'un marché. Denis Gaucher, directeur Ad Intelligence chez Kantar Media, commente : "Nous accompagnons naturellement l'évolution du paysage des médias tradigitaux en développant de nouveaux services de veille. Le Paid Search est un canal incontournable dans les stratégies médias des annonceurs et des agences digitales ; le service que nous lançons permet aux responsables marketing de mesurer leur part d'investissement SEA sur leur marché, de la comparer aux informations off-line et au display, et de suivre les investissements de leurs concurrents directs ou indirects".
Soft Concept lance Mobi-Survey, outil d'enquêtes mobiles en mode déconnecté pour iOS et Android Soft Concept vient de lancer un système très innovant d'enquêtes mobiles, qui permet d'administrer tous types d'enquêtes en mode connecté ou déconnecté, sur les tablettes et smartphones d'Apple et sur tous les matériels fonctionnant sous Android (Samsung, LG, Google Nexus...). Le système s'articule autour de l'application Mobi-Survey, téléchargeable gratuitement sur l'Apple Store ou Google Play. Les enquêtes sont conçues comme pour les enquêtes web à l'aide du logiciel Net-Survey, disponible désormais en version M comme Mobile et Multi-plateformes. Cette nouvelle version de Net-Survey permet de créer des enquêtes qui s'adaptent directement au périphérique utilisé, qu'il s'agisse de smartphones, de tablettes ou de navigateurs PC. La troisième brique du système est la plateforme en ligne Survey-Manager version M qui héberge les enquêtes conçues avec NetSurvey M et les met à la disposition des correspondants (enquêteurs, panélistes, consommateurs..). La plateforme se veut universelle puisqu'elle gère à la fois les enquêtes web, les enquêtes mobiles et le CATI en ligne, avec une couverture très poussée des besoins en la matière (gestion d'enquêteurs, de quotas, de rendez-vous d'appel, etc.). Elle ajoute même à toute cette panoplie des fonctionnalités de gestion avancée de panels. Pour Marion Clairet, directrice commerciale de Soft Concept, « Notre application d'enquêtes mobiles Mobi-Survey ouvre une nouvelle ère dans le domaine de la collecte de données, en offrant des nouvelles possibilités inédites et vraiment extraordinaires : instantanéité, portabilité extrême, ergonomie et facilité d’utilisation, communication en temps réel, liaison avec des bases de données, capture de photos, de vidéos et de sons, localisation GPS... C'est vraiment la première solution qui permet d'exploiter facilement et de manière optimale tout le potentiel des technologies mobile. » Les applications envisageables de cette nouvelle technologie sont innombrables dans les domaines du marketing et des études bien sûr mais aussi pour des applications dans les domaines du commercial, de la qualité, de la sécurité, de l’audit et inspection, de la logistique, de l’organisation, des ressources humaines, de la formation, du SAV, etc. Renseignement et démonstrations en ligne sur www.soft-concept.com. 7
ACTUALITES
Athlane lance le Shopping Tour L'institut Athlane lance un nouvel outil visant à comprendre de façon fine l'ensemble des comportements et attitudes des shoppers lorsqu'ils préparent un achat (critères de choix, arbitrages...), lorsqu'ils en effectuent un (clés d'entrées, réactions émotionnelles...) et après qu'ils en aient effectué un. L'outil permet de déterminer à partir de ces critères des typologies de shoppers. Ce type de démarche est applicable pour des produits ou services ayant un process d'achat multi-canal, mais également pour les produits ou services complexes. On peut citer l'achat de produits multimédias (ordinateur, tablette, TV...), l'acquisition d'un voyage, l'investissement dans un équipement sportif... Concrètement, la méthode peut se traduire par la tenue par le shopper d'un journal de bord lors de la période de pré-achat pour indiquer les informations qu'il recherche, les canaux de communication qu'il utilise et les questions restant en suspens. Le shopper indique également sa perception des offres et décrit comment il arrive à établir sa short-list de points de vente physiques. En phase d'achat, le shopper est accompagné dans plusieurs points de vente par un psychosociologue (avec ou sans enregistrement audio-vidéo) qui lui demande de raconter à haute voix ce qu'il voit, pense, ressent, comment il prend certaines décisions (narration expérientielle). Le psychologue l'observe également dans ses expériences, ses comportements, ses attitudes face aux différents stimuli en présence et lui pose des questions sur ses ressentis, les raisons de ses choix... Enfin, en phase post-achat, un entretien téléphonique permet de savoir quel bilan dresse le shopper de la consommation du service, de son achat (après quelques jours de phase de découverte et d'utilisation du produit vendu)...
Etudes RH COHDA lance un outil innovant de pilotage RH L'institut COHDA vient de lancer un nouveau concept d'outil de pilotage RH simple et pragmatique pour permettre aux entreprises de répondre aux enjeux réglementaires, organisationnels, managériaux et de communication. Reprenant les méthodes marketing pour les enquêtes internes, ce baromètre permet d'écouter les salariés de l'entreprise à la manière des enquêtes de satisfaction de clients. COHDA accompagne l'entreprise dans une démarche participative de la création de l'outil de recueil jusqu'à la restitution des résultats. L'analyse des données collectées via une enquête web aboutit à la construction d'un plan d'action pragmatique. COHDA, basé dans l'agglomération bordelaise, est spécialisé dans les études quantitatives ad hoc et barométriques et développe son expertise via une gamme de solutions complète (études de marchés, tests produits, enquêtes d'opinion, enquêtes internes, études de satisfaction…) et l'ensemble des modes de recueil du marché (téléphone, Internet, courrier, face-à-face). Pour en savoir plus, contactez Laurent Carré au 05 40 24 10 69
Esperformance lance Evalaction Partant du constat que, pour le pilotage de l'entreprise, les indicateurs annuels de la performance des ressources humaines étaient tout aussi indispensables que ceux des données marketing et économiques, la société suisse Esperformance vient de lancer un nouvel outil Evalaction, destiné à prendre la mesure de la satisfaction des collaborateurs et à déployer les plans d'action nécessaires pour l'amélioration de la performance. Cet outil a été conçu pour permettre une réactivité et une rapidité de mise en œuvre uniques sur le marché, en optimisant les choix de management, en réduisant les coûts de gestion du capital humain et en augmentant la productivité des collaborateurs. Evalaction se base sur une présentation des résultats objective, percutante et efficace, avec des indicateurs de performance clairs et précis, une identification objective et factuelle des leviers d'actions, une priorisation stratégique des chantiers à mener et une approche favorisant l'implication des collaborateurs. Pour en savoir plus : http://www.esperformance.ch 8
Survey Magazine Avril 2013
Nominations dans le secteur des études Laurence Lebouteiller prend la direction générale d'Ipsos Observer France, entité d'Ipsos France dédiée à la collecte, au traitement des données et à la commercialisation des grandes enquêtes. Précédemment Global Director, Research Operations dans le groupe TNS Laurence a exercé des fonctions commerciales, notamment sur le marché des télécoms, puis a été directrice de l'Organisation puis directrice des Opérations et de la Qualité.
Eric Dubois rejoint l'Ifop en tant que Directeur Général de la filiale Ifop North America qui intervient au Canada et aux Etats-Unis depuis Toronto. Eric Dubois possède un MBA en Management Vente & Marketing et a été Directeur Général de NFOInfratest France de 1999 à 2004, puis Directeur Général d'Ipsos Benelux où il était notamment en charge du développement du compte AB-InBev à l'international depuis 2007.
ACTUALITES
SEMO - Printemps des Etudes
La Guerre des salons n’aura plus lieu
E
n avril 2013, deux salons des études vont fleurir à quelques jours d'intervalle : la 2ème édition du Printemps des Etudes se tiendra les 4 et 5 avril au Palais Brongniart, suivie 10 jours après (16 au 18 avril) de la 16ème édition du salon Semo qui quitte le Palais des Congrès de la porte Maillot pour se tenir Porte de Versailles.
Le Printemps des Etudes Ce nouveau salon peut se targuer d'être désormais l'évènement officiel de la profession des études. Il est en effet soutenu par la plupart des sociétés du secteur et par les 5 grandes associations du secteur que sont l'Adetem, l'Esomar, Irep, Syntec Etudes Marketing et Opinion et l'UDA. Le Printemps des Etudes a été créé par des exposants déçus du Semo, qui trouvaient que le "Salon des Etudes Marketing et Opinions" ne répondait plus vraiment aux b e s o i n s d e s s o c i é t é s d u s e c t e u r. Regroupés dans un collectif baptisé Recréation, ils ont échangé, défini leurs souhaits et fini par confier à un nouveau prestataire, Empresarial, l'organisation du nouveau salon des études. La première édition du Printemps des Etudes s'est tenue les 5 et 6 avril 2012 et a réuni 111 exposants, dont 57 instituts. Elle a attiré 1785 visiteurs professionnels et a équilibré ses comptes, ce qui n’était pas mal pour une première édition. Cette année, le salon réunira environ 125 exposants, avec notamment 9 grandes conférences et une cinquantaine d'ateliers animés par les exposants.
Stéphanie Perrin, commissaire général du salon semble très confiante sur le succès de cette deuxième édition qui installera définitivement la manifestation dans le paysage des études marketing.
Le Semo Côté Semo, les choses ont bien changé depuis l'arrivée du nouveau salon concurrent. Jadis évènement incontournable du métier des Etudes Marketing, le Semo a connu de nombreux déboires ces dernières années, surtout à partir de l'édition 2009 et plus encore en 2010, année de rupture. Un exposant se rappelle qu'il fut un temps où l'on devait réserver et payer un acompte pour l'édition de l'année suivante, dès le premier jour du salon, sous peine de voir son emplacement attribué à une autre société. Tarsus France, organisateur de nombreux salons professionnels dont le Semo, a fini par épuiser le filon en valorisant à l'extrême tout ce qui pouvait l'être (ex : bouton sur le site web du salon proposé aux exposants pour 2000 € en 2007 ; droit de placer sa documentation dans un rack disposé à l'entrée du salon proposé à 1.500 €HT ou distribution par hôtesses à 1.000 €HT par jour et par hôtesse ! ; une dizaine d'autres offres de sponsoring dont l'affichage du logo sur les poteaux, sur le parcours de visite, sur les plans du salon, sur les b a d g e s V I P, e t c . ) . Concentrés sur la traite de la vache à lait, les organisateurs ont fini par oublier de valoriser le salon, de veiller à la qualité des conférences et d'assurer une promotion adéquate.
Ghislaine de Chambine, nouvelle commissaire générale du Semo, a repris en 2011 les rennes d'un salon en lambeaux et s'est battue avec beaucoup d'ardeur pour sauver la manifestation et retrouver les faveurs des sociétés du secteur des études. Cela n'a pas suffi pour la 16ème édition du Semo initialement prévue les 14 et 15 novembre 2012 et qui a du être reportée in extremis. Devant la désaffection des exposants, Tarsus France a décidé de fusionner l'évènement avec 3 autres salons, BeCommerce, M Direct et Stratégies Clients consacrés à l'e-commerce, au marketing direct et à la relation clients. Même si cette solution semble marquer la victoire par KO du Printemps des Etudes, l'idée d'accoler le Semo à trois autres salons du domaine du marketing n'est peut-être pas seulement une solution de circonstance. Elle pourrait en effet se révéler judicieuse à un moment où les études marketing peuvent de moins en moins faire cavalier seul et doivent s'intégrer dans des dispositifs plus larges de pilotage et d'optimisation de la performance des entreprises, comme le montrent les différents articles de ce numéro de Survey-Magazine, et notamment celui consacré au phénomène Big Data. L'ancien Semo est mort de cupidité et de surdité. Même en adoptant un positionnement judicieux, le nouveau Semo va mettre du temps à trouver sa place. La profession a mis sur pied une manifestation taillée sur mesure pour répondre à ses besoins. Il faut s'assurer maintenant que cette nouvelle initiative répondra aussi aux besoins des clients et saura s'adapter aux bouleversements en cours sur le marché des études et de l'intelligence marketing. On le saura sans doute rapidement.
R
REPERES
Les Instituts d'études
& l'export
1% 0,5% 6%
-4% -11% -2% 1%
10 0
10
Survey Magazine Avril 2013
x%
Bénéfice net
-x%
Perte nette
1%
7%
0%
5%
10% 1%
-6%
Inférence
Kantar Health
IHS
A+A
MV3
Icomed
G&A Links
LH2*
CSA
TOLUNA
GERS
IFOP*
CSD
IPSOS Observer
IMS Health
BVA
40
20
5%
Les chiffres sont généralement ceux de l'année 2011. Le symbole * signale des chiffres de 2010.
50
30
4%
CA export en millions d'Euros
70 60
7%
En tout cas, de nombreux dispositifs existent qui peuvent aider les instituts à s'ouvrir de nouveaux marchés à l'international. On peut notamment citer les initiatives d'Ubi France qui aide les instituts à participer à des salons à l'étranger en prenant en charge une partie du budget. Par exemple, un pavillon France est prévu à l'Insight Show 2013 qui se tiendra les 26 et 27 juin à Londres. Les 8 stands prévus ont déjà été retenus. D'autres organismes peuvent également être utiles. Citons notamment l'Oseo, la Coface, les Chambres de Commerce et les Conseils Régionaux dont certains ont mis en place des structures dédiées (ex : Erai en région Rhône-Alpes...).
MAPI
2%
Mediametrie
80
Leur analyse montre que 40% seulement des instituts ont une activité à l'export. Pour plus de la moitié, cette activité dépasse 10% du chiffre d'affaires. Un institut sur 10 réalise même plus de la moitié de son chiffre d'affaires à l'export. En valeur, les activités d'étude à l'export représentent au total près de 21% de la production du secteur. 5% des instituts réalisent plus de 85% du CA total à l'export de l'ensemble de la profession. En volume, 75% du CA à l'export est réalisé par des instituts des départements 92 (51%) et 75 (24%). Il faut dire que ces deux départements regroupent 65% des instituts du pays. La proportion de CA réalisée à l'export ne semble pas impacter de manière significative la rentabilité des instituts. Ainsi, beaucoup de micro-structures qui affichent un bon taux de rentabilité n'ont aucune activité à l'export.
CA en millions d'Euros Quintiles
90
4% 10% 7%
IPSOS
AC Nielsen*
100
6%
B2S
110
0%
Kantar
120
TNS
12% 11%
市场调查 overzicht SURVEY
Synovate*
A
lors que les moteurs de la consommation, des dépenses publiques et de l'investissement semblent en panne dans notre pays, l'export qui représente 27% du PIB de la France constitue aujourd'hui le seul véritable espoir de croissance à court terme. Le pays est le 5ème exportateur mondial et les entreprises de toutes tailles sont fortement encouragées à se développer à l'international. D'après la dernière étude de l'assureurcrédit Euler Hermes, les PME qui représentaient 75% des entreprises exportatrices en 2010 ne représentent plus que 61% de ces dernières en 2012. Pour connaître le niveau de contribution des instituts d'études à l'effort national, nous avons repris les dernières données financières publiées par toutes les entreprises du secteur « Etudes de marché et sondages », réalisant un CA d'au moins 100 K€. En tout, 630 comptes de résultat ont été pris en compte pour les années 2011 ou, à défaut, 2010.
ﺑﺣث
Repères 9 REPERES
ème
La France est en 9ème position des pays où la recherche marketing est la plus chère. C'est mieux qu'en 2010 où elle occupait la 3ème place. Les Etats-Unis arrivent en tête, suivis de la Suisse et du Canada.
39
63
%
C'est la part de la grande consommation sur le total des investissements mondiaux de la recherche marketing. Suivent les média (17%), le secteur public (9%), les télécommunications (6%), les services financiers (5%) et le retail (5%).
42
C’est le nombre d'adhérents à SyntecEtudes Marketing & Opinions, le syndicat représentatif des professionnels des études en France.
% L'Europe baisse mais continue à
représenter la majorité des dépenses mondiales de recherche marketing. L'Amérique du Nord mobilise 33% des dépenses et la zone Asie-Pacifique représente 17%.
2020 12,6
%
C'est le pourcentage de sociétés d'Etudes qui réalisent un CA supérieur à 2 M€. 65% des instituts immatriculés n'atteignent pas 500 K€ de CA annuel.
+ 4,5
%
25,2
milliards d’euros
C'est le chiffre d'affaires mondial consolidé de la recherche marketing dans le monde (source Esomar, année 2011). Il progresse de 4% au niveau mondial mais baisse de 1,3% en Europe.
2,84
milliards d’euros
C’est le chiffre d'affaire net que devrait atteindre la publicité en ligne, en France pour l'année 2013. En 2012, cette activité a généré 2,7 milliards d'euros dont 42% sur le search. Le marché français du mobile reste nettement sous-exploité par rapport aux audiences du mobile et à l'évolution de cette activité dans les autres pays.
C'est le nombre de sociétés immatriculées au registre du commerce en France pour l'activité "Etudes de marché et sondages" (code APE 7320Z).
10
La France compte 10 instituts qui réalisent un CA annuel de plus de 50 M€.
19,3
%
C'est le pourcentage de sociétés d'Etudes qui affichaient un exercice déficitaire pour 2011.
C'est le résultat net après impôts dégagé en moyenne par les instituts d'études en France (données 2011).
Survey Magazine Avril 2013
11
OUTILS
NEUROMARKETING L'utilisation des neurosciences pour les études marketing
Par Kevin Touati ktouati@ethnosoft.com
A
l'ère du consommateur infidèle et versatile, la recherche marketing classique peine à identifier de manière précise et fiable les besoins et les attentes, les goûts et les préférences. C'est dans ce contexte qu'une méthode censée aller au-delà du déclaratif pour identifier les vraies aspirations et sentiments attire l'attention et suscite un intérêt grandissant chez les marketeurs. Il s'agit du neuromarketing, discipline qui se place à la croisée des chemins entre le marketing et les neurosciences cognitives, et dont la promesse serait d'approcher de manière plus scientifique le cerveau du consommateur afin de mieux l'appréhender.
Une technique récente L'intérêt pour les neurosciences cognitives est assez récent puisqu'il remonte au début des années 2000 et fait suite à la publication de recherches réalisées sur l'impact des stimuli sur notre cerveau et qui démontraient leur impact décisionnel. On considère depuis que ces réactions, observables par IRMf (Imagerie par Résonance Magnétique fonctionnelle) et électro-encéphalographie, sont susceptibles d'influencer la prise de décision lors des actes d'achat. La discipline qui découle de ces observations et que l'on a baptisé depuis neuromarketing vise à décrypter des processus cérébraux humains complexes soumis à des
stimuli qui peuvent être des marques, des produits ou des publicités. L'enjeu est de permettre aux marques d'apprécier les mécanismes neurologiques liés aux aptitudes cognitives que sont la préférence, l'attention, la mémorisation et les émotions pour évaluer la performance de leurs outils commerciaux comme la publicité, le packaging, le merchandising, l'image de marque (…) mais aussi effectuer des tests de comparaison avec la concurrence. Les résultats des expériences neuroscientifiques mettent en évidence des différences flagrantes entre ce que dit le consommateur d'une part et ce que son activité cérébrale laisse voir d'autre part. Cela ne milite pas en faveur des enquêtes traditionnelles qui, au dire de ces observations, peuvent s'avérer trompeuses et induire les marques sur des mauvais choix. C'est peutêtre pour cela que 80 à 90% des produits lancés sur le marché échouent dès la première année suivant leur lancement. Certains exemples concernant des entreprises de premier plan ont d'ailleurs marqué les esprits comme l'échec du New Coke de Coca Cola ou le tollé généré par le changement de logo de Gap. La prise de décision du consommateur ne peut donc pas être uniquement abordée via le seul raisonnement conscient. Si l'on veut vraiment comprendre des consommateurs qui évoluent constamment et de plus en plus vite, le
développement du neuromarketing semble offrir des perspectives prometteuses.
Comment décrypter le cerveau
30
millisecondes C'EST LE TEMPS QUE MET LE CERVEAU POUR RÉAGIR À UN STIMULUS SUBLIMINAL
On entend beaucoup parler des neurosciences dans les médias. Il s'agit le plus souvent d'applications un peu surprenantes où la technique vient se substituer au raisonnement humain. C'est le cas dans un fait divers qui a eu lieu en Inde et où une jeune femme de 24 ans a été condamnée à perpétuité pour avoir empoisonné son ex-fiancé à l'arsenic, sur la foi d'un électroencéphalogramme réalisé par le Laboratoire médico-légal de Mumbai (Bombay). Le test a montré que l'empreinte cérébrale de la jeune femme révèlait une connaissance du meurtre par expérience directe. Son cerveau réagissait à l'identique à l'écoute de « j'ai eu une liaison avec Udit », « j'ai acheté de l'arsenic dans un magasin », « j'ai appelé Udit » et « j'ai mélangé l'arsenic à sa nourriture ». Controversée avant le procès, l'utilisation de ce procédé nouveau a bien sûr suscité un tollé.
12
Survey Magazine Avril 2013
Le traitement de toute information provenant de l'environnement se produit d'abord dans les régions cérébrales dédiées aux émotions (autrement dit ce qui forme la partie du cerveau dite primitive ou reptilienne), avant de l'être au niveau des fonctions cognitives supérieures. A ce stade on s'aperçoit que le cerveau primitif prend des décisions alors que la conscience tente de leurs trouver une explication. Le libre arbitre ne serait alors qu'une illusion rétroactive. Cette hypothèse n'est pas encore démontrée. Néanmoins, les circuits cérébraux de plaisirrécompense ou de peur-punition sont actionnés très tôt dans l'acte « réfléchi » de décision d'achat. L'émotion est donc la véritable cible des marques. Le Graal du neuromarketing est de trouver l'émotion (la tristesse, la culpabilité, la joie, …) qui va actionner le « Bouton d'achat ». Mais pour les neuromarketeurs, les émotions ne valent rien si elles ne sont pas associées à une bonne mémorisation. Ainsi, chez Neurofocus, la société américaine leader sur ce domaine, le procédé de mesure cérébral se distingue par une étude spécifique. Les chercheurs calculent 3 paramètres sur les millions de données enregistrées correspondant à l'activité cérébrale (leurs capteurs enregistrent 120 000 données par secondes). Le calcul de ces paramètres est représenté par des courbes : 1ère courbe : l'attention. Elle est la cible la plus facile à atteindre. 2ème courbe : l'émotion. Cette courbe doit monter et descendre durant l'exposition du message publicitaire. En effet,
OUTILS
l'émotion ne doit pas être trop forte pour qu'il n'y ait pas un rejet du consommateur. 3ème courbe : La mémoire, qui est la cible la plus difficile à atteindre. Le pic de mémoire à la fin d'un spot de publicité est excellent car c'est le moment où la marque est généralement exposée. Des mesures ont été prises pour prouver un phénomène qui paraît logique, mais que les annonceurs ne respectent généralement pas : le contexte. Nous sommes exposés à deux millions de publicités tout au long de notre vie. Cela correspond à 8 heures, 7 jours sur 7, pendant 6 ans ! Plus de la moitié de ces publicités sont hors contexte. Les paramètres se retrouvent décuplés lorsque le consommateur perçoit le message dans un contexte favorable. En gros, diffuser un spot publicitaire pour un steak après 30 millions d'amis n'est pas conseillé. L'étude neuroscientifique a permis de comprendre un phénomène courant. L'attachement à une marque est semblable à la dévotion à une religion, il fait appel au sentiment de sécurité. La sensation d'appartenir à une communauté fonctionne dans notre cerveau de la même manière pour une marque que pour une religion. Apple est cool, innovateur et stylé, mais ce que le consommateur sait, c'est que
des millions de personnes à travers le monde utilisent ses produits. La marque l'a bien compris. Son iTunes sera bientôt un site communautaire semblable à un Facebook pour la musique. Ce sentiment de sécurité a été observé dans de nombreux autres cas. Notamment pour les campagnes de prévention anti-tabac. La stagnation du nombre des fumeurs malgré les efforts des services sanitaires à mis en évidence que les messages du type « Fumer tue » ne fonctionnaient pas. Les expériences en neurosciences ont vérifié cette hypothèse. Il a été observé qu'un fumeur exposé à une publicité dans laquelle il voyait quelqu'un fumer éprouvait un sentiment de bien être. En revoyant plus tard cette publicité de manière répétée, son cerveau finissait par associer le message de prévention au sentiment de bien être. Autre révélation, a priori surprenante vu l'usage abusif qui en est fait : le sexe ne paie pas. L'activité cérébrale a démontré que nous sommes tellement obsédés par le sexe, que la vision d'une mise en scène se rapportant au sexe dans un spot publicitaire, occulte complètement la mémorisation de la marque. De plus, aujourd'hui le sexe est tellement facile d'atteinte avec Internet qu'il n'évoque plus de mystère et perd encore plus son impact.
Le neuromarketing peut aussi être utilisé pour mieux respecter le cerveau du consommateur. Dans le contexte de la publicité infantile, on remarque que les enfants n'ont pas la structure cérébrale nécessaire pour distinguer une publicité télévisée du monde réel. Analyser leurs réactions devant certaines images pourrait donc contribuer à la diffusion de spots plus sains. Les différentes techniques neuroscientifiques utilisées à l'heure actuelle sont néanmoins suceptibles d'être améliorées. Les difficultés de précision temporelle et spatiale s'expliquent par la complexité de l'expérimentation neurologique. Et les coûts engendrés sont importants. En France notamment, avec des moyens limités (un scanner IRM vaut quelques millions d'euros !) la priorité des recherches revient tout naturellement aux usages médicaux. Néanmoins, le monde voit des entreprises qui emploient chercheurs scientifiques et marketing de haut niveau, proposer déjà des services de grande qualité en faisant preuve de beaucoup d'innovation. Les grandes démarches de mesure pratiquées aujourd'hui en neuromarketing sont : Le test électroencéphalographique (EEG) est la mesure directe des ondes cérébrales. Une multitude de capteurs mesurent directement les réponses de l'ensemble du cerveau à des stimuli plusieurs miliers de fois par seconde. L'avantage de cette méthode est la précision temporelle qui permet de suivre l'activation cérébrale en temps réel. Mais la technique présente de gros défauts en situation réelle C'EST LE TAUX comme dans un supermarché par exemple. L'outil est très senDE CORRÉLATION sible aux mouvements environENTRE L'ACTIVITÉ nants, aux néons, aux ondes CÉRÉBRALE électromagnétiques ou tout simENREGISTRÉE plement aux mouvements de la PAR L'IMAGERIE À tête. En outre, il n'enregistre RÉSONNANCE que l'activité cérébrale de surMAGNÉTIQUE ET LE face alors que la prise de décision sollicite aussi des parties COMPORTEMENT du cerveau plus profondes. RÉEL OU L'ÉMOTION L'avantage de cette méthode RESSENTIE est la précision temporelle qui permet de suivre l'activation cérébrale en temps réel. Sa faible précision spatiale ainsi que son impossibilité d'enregistrer des régions profondes du cerveau en limite tou-
74%
Survey Magazine Avril 2013
13
OUTILS
Intégrer les connaissances en neurosciences cognitives pour pratiquer un marketing durable ? Par Jean-Louis Prata, Directeur R&D de l'Institut de Médecine Environnementale et de l'Institut de Neurocognitivisme - jean-louis.prata@ime.fr
L
e neuromarketing cherche, le plus souvent, à interpréter directement les liens entre l'activation de certains territoires du cerveau et le comportement du consommateur, avec le « fantasme » de réussir à activer le « bouton d'achat » dans le cerveau du consommateur. La panoplie des matériels de mesure utilisés en neurosciences (IRM, EEG…) aussi impressionnants que rassurants et coûteux, ne garantit pourtant pas la pertinence et l'opérationnalité des résultats. N'y a-t-il pas d'autres moyens d'intégrer les progrès des neurosciences cognitives pour progresser dans la pratique du Marketing ? Je pense, personnellement, que les pratiques actuelles de neuromarketing ont deux failles. La première, c'est le raccourci entre les zones activées dans le cerveau et le comportement d'achat : Avec plus de 100 milliards de neurones interconnectés jusqu'à 10.000 fois chacun, est-il bien raisonnable de penser que l'on peut se dispenser d'intégrer à l'étude des comportements d'achat un modèle permettant de comprendre la psychologie du consommateur ? La seconde est dans l'intention même de certaines pratiques de neuromarketing qui oublient parfois l'essence même de la fonction marketing de l'entreprise, qui consiste à comprendre les besoins et les envies exprimés et latents des consommateurs pour développer des produits et services qui vont les satisfaire au mieux et donc les fidéliser. C'est peut être ce qui explique la mauvaise presse qu'a le neuromarketing en France ? l'Institut de Médecine Environnementale travaille depuis sa création en 1987, bien avant que les neurosciences aient le vent en poupe, au développement de « l'approche neurocognitive et comportementale » (ANC) dont la vocation est d'intégrer les fabuleux résultats de la recherche internationale en neurosciences et en sciences cognitives dans un modèle global cohérent et opérationnel à même d'aider les professionnels de l'humain – psychothérapeute, coachs, DRH, formateurs, mais aussi bien sûr professionnels du marketing, à mieux comprendre la psychologie humaine. Que sait-on aujourd'hui sur le fonctionnement de notre cerveau ? Les neuroscien-
14
Survey Magazine Avril 2013
ces apportent aujourd'hui un regard neuf et objectif sur notre nature humaine d'être pensant. Bien qu'il reste encore beaucoup à découvrir sur le cerveau, nous commençons à comprendre l'organisation et le fonctionnement de nos 100 milliards de neurones. Cette compréhension naissante suffit-elle à changer notre regard sur nous-mêmes et nos semblables et à apporter des éclairages pratiques pour améliorer les pratiques de marketing ? Comment résumer en effet par quelques éclairages marquants cette nouveauté ? L'évolution des espèces a laissé des strates anatomiques et fonctionnelles successives dans notre cerveau, ce qui signifie que nous sommes le lieu de plusieurs « gouvernances » parfois rivales ou, pour le moins, pas toujours sur la même longueur d'ondes. Ainsi, notre intelligence générale serait issue du néocortex préfrontal. Le haut front de notre espèce est donc bien représentatif de nos capacités d'adaptation au changement, de logique, de création et d'innovation, et de gestion des émotions qu'Antonio Damasio décrit comme « le lieu de rencontre entre le coeur et la raison ». Mais sa place dans l'édifice mental n'est pas tout à fait celle que l'on attendait. Loin d'être le coeur de notre conscience régnante, le préfrontal est essentiellement inconscient. Son rôle serait donc de nourrir… notre intuition ! En fait, notre génie dépendrait d'abord de l'accueil que notre conscience fait à nos intuitions et de l'expérience que nous nous constituons en ce domaine. Notre conscience, quant à elle, se localiserait principalement au niveau de la face interne des hémisphères cérébraux, territoire plus ancien dévolu à l'émotionnel dénommé gyrus cingulaire, ainsi que, par extension, dans les territoires sensorimoteurs arrière du néocortex. C'est pourquoi sans doute nous éprouvons plus de facilité à illustrer nos propos, concrétiser par des actes qu'à communiquer par l'abstrait. Les territoires émotionnels du gyrus cingulaire sont impliqués dans la constitution de notre personnalité, d'où une réelle difficulté à prendre de la distance sur nos émotions et motivations. Notre personnalité profonde dite primaire (ou tempérament), proviendrait largement de la mémorisation définitive (empreinte) de l'expérience des premiers
mois de la vie néonatale : constitution de notre idéal de vie, de notre vocation, de nos motivations profondes, sujets sur lesquels nous sommes heureux de « faire » plus que « d'avoir », donc presque indifférents aux succès et à la reconnaissance. À côté de cette personnalité émotionnelle normale, se définissent les personnalités secondaires (caractères) issues de la culture, mais aussi les personnalités dites difficiles, issues des « amygdales limbiques ». Ces centres nerveux très anciens, situés sous la base du cortex, sont inconscients mais ils génèrent, à la différence du préfrontal, des comportements très instinctifs, c'est-à-dire rigides, irrationnels et stéréotypés. Nous voyons donc que notre conscience est prise entre deux inconscients, l'un au-dessus, l'autre en dessous. Ce vieux système de régulation sociale archaïque sous-tend les rapports de force, en d'autres termes notre niveau d'affirmation de soi : dominance et soumission, naïveté et méfiance sont les mots clés qui définissent les relations « amygdaliennes », celles de la loi du plus fort. L'application de ce modèle neurocognitif et comportemental au marketing fait l'objet d'expériences très prometteuses tout en étant profondément éthiques. Plutôt que chercher le « bouton d'achat », on va chercher à comprendre la personnalité et les motivations profondes des consommateurs d'une marque puis à développer une personnalité de marque, une offre et un langage qui réponde au mieux aux motivations et préférences, tant sur les caractéristiques du produit/service que sur la façon de communiquer. Point besoin d'IRM et d'EEG pour utiliser dans cette perspective les neurosciences dans le marketing. Un questionnaire (Inventaire de Personnalité, Assertivité, Adaptabilité, ou VIP2A), développé en collaboration avec Soft Concept (je tiens au passage à préciser que les outils de Soft Concept ont permis de répondre au cahier des charges très rigoureux et à la complexité des traitements requis pour cet outil), permet d'appréhender la personnalité et le fonctionnement mental de ses clients pour mieux comprendre comment les satisfaire durablement. Pour en savoir plus : www.neurocognitivisme.fr
OUTILS tefois l'utilisation. L'oculométrie aussi appelée
« Eye Tracking » est l'observation et la mesure des mouvements oculaires. Elle identifie les composants de l'image visuelle qui entraînent des réactions neurologiques spécifiques. Cette technique est surtout efficace pour les publicités et les évaluations de packagings. C'est aujourd'hui l'une des méthodes les plus fréquemment utilisées dans la mesure où l'équipement (des lunettes évoluées) est maintenant abordable pour la majorité des sociétés d'études. L'imagerie par résonance magnétique (IRMf) mesure la consommation d'oxygène dans les tissus du cerveau en fonction des actions du sujet. Elle permet d'observer l'ensemble des zones du cerveau susceptibles d'être activées avec en plus une très grande précision anatomique (de l'ordre du millimètre). Elle est donc la plus efficace pour rendre compte de l'image d'une marque ou d'un produit. Ses limites se situent au niveau de la précision temporelle et de l'impossibilité d'effectuer des mesures dans les lieux d'achat. Le gros inconvénient de l'IRMf est, comme cité précédemment, l'équipement nécessaire qui est non seulement imposant mais aussi très coûteux. L'activité électrodermale est l'ensemble des mesures biométriques (rythme cardiaque, res-
piration, mouvement corporel, tension artérielle, etc.) qui sont généralement considérées comme des formes secondaires de méthodes de recherche car les phénomènes de réaction sont bien plus lents. La réflexion dispose donc d'un laps de temps plus long et peut fausser l'engagement émotionnel.
Les problèmes d'éthique Le neuromarketing ne dispose pas à l'heure actuelle d'une bonne image auprès de l'opinion publique. On l'associe volontiers à de la manipulation ce qui pousse les firmes comme Coca Cola ou BrightHouse, qui a véritablement inventé le concept, à dissimuler leur pratique du neuromarketing. Des questions d'éthique se posent. Si la compréhension du fonctionnement du cerveau contribue à pouvoir mieux respecter et répondre aux besoins essentiels des êtres humains, les applications mercantiles des neurosciences ne sontelles pas nuisibles aux consommateurs qui sont susceptibles de se faire manipuler ? Drouet et Roullet, chercheurs en neurosciences cognitives qui ont publié « Neuromarketing : Le marketing revisité par les neurosciences du consommateur » (octobre 2010) estiment que « le fait d'observer (au niveau macroscopique) n'a jamais influé ou modifié le sujet d'observation. Affirmer que la découverte de certaines activations cérébrales sous certains stimuli commerciaux est le premier pas vers une manipulation
LE GRAND PUBLIC ASSOCIE VOLONTIERS LE NEUROMARKETING À DE LA MANIPULATION
pure et simple, relève de l'affabulation ou de l'ignorance. » Ce qui est avant tout mis en doute, c'est la rationalité des besoins qui peuvent découler de ce procédé qui ne considère plus la capacité de jugement mais la réceptivité à un stimulus. Ceci étant, les dérapages qui peuvent exister comme dans tout développement technologique, doivent être soumis à des mesures préventives. Des règles éthiques internationales et la transparence des entreprises sur l'usage fait de ces techniques s'avèrent indispensables.
Une pratique réservée aux riches Avis aux petites et moyennes structures, pour faire du neuromarketing, il faut du temps et de l'argent : six à douze mois pour mener une étude sérieuse et beaucoup de zéros sur le chèque. Le coût du test par personne est de l'ordre du millier d'euros. Et si l'IRM est un procédé qui vous attire, sachez que s'équiper revient à plusieurs millions d'euros puisque, outre la machine, l'équipement nécessite un
Depuis 10 ans, spécialiste des études et conseils marketing dans le domaine de la santé Etudes Ad ’hoc Quali et Quanti 100% santé, France et Europe Une exeprtise des études via Internet avec un réseau de plus de 12 000 professionnels de santé Des valeurs fortes : Implication - Passion - Fiabilité Contact : Nicolas OUVRY - 04.73.73.36.63 - ouvry@pascaleo.com
OUTILS
bâtiment isolé et des scientifiques spécialisés. Il faut d'ailleurs savoir que la location à des fins marketing est inconcevable en France. C'est peut-être en raison de ces difficultés de mise-en-oeuvre et des coûts associés que le neuromarketing ne serait utilisé que par une centaine d'entreprises dans le monde à l'heure actuelle. Le neuromarketing porte pourtant les germes d'une véritable révolution. C'est la toute première fois où le marketing est associé à la science pour accroître les performances dans la compréhension du consommateur. L'analyse des comportements et des motivations entre dans une nouvelle ère et l'avenir de cette nouvelle discipline est pour l'instant difficile à imaginer. Pour l'instant, les usages
concrets restent perfectibles, notamment dans l'interprétation des réactions cérébrales aux stimuli et leur rapport avec l'acte de décision d'achat. Mais ce qui est sûr, c'est que de grands progrès seront réalisés d'ici quelques années qui permettront d'acroître la fiabilité des résultats. Il faut en tout cas anticiper les dangers de dérive et éviter le secret qui entoure les neurosciences et qui donnent l'impression que des scientifiques manipulent dans l'ombre le cerveau humain. Pour que le neuromarketing se développe au grand jour et évite les tentations de l'eugénisme cérébral, il convient d'établir des réglementations spécifiques qui encadrent les pratiques potentiellement dangereuses. Rien n'existe aujourd'hui
LE NEUROMARKETING PORTE LES GERMES D’UNE VÉRITABLE RÉVOLUTION
dans ce domaine. Les annonceurs et marketeurs ont en tout cas un outil au potentiel extraordinaire, même si le cerveau humain, on peut en être sûrs, ne sera pas totalement décrypté de sitôt.
Lectures conseillées
Ouvrages disponibles sur :
www.surveymag.eu
DOSSIER
La révolution des enquêtes mobiles
18 19 20 21 24 26
Après le CAWI, le CAMI Les avantages distinctifs de l'enquête mobile Les types d'enquêtes mobiles Pratique : Les 4 phases d'une enquête mobile Quel matériel choisir pour vos enquêtes mobiles ? Enquêtes mobiles : Guide Esomar des bonnes pratiques
Survey Magazine Avril 2013
17
DOSSIER
Dossier préparé par Gérard DANAGUEZIAN gdanaguezian@ethnosoft.com
Après le CAWI, le CAMI Chronique d'une révolution annoncée
N
ous annoncions dans Survey-Magazine, dès le début des années 2000 et de manière plus affirmée, à partir de 2005, l'inéluctable changement de paradigme dans l'univers des technologies d'enquêtes et de collecte de données avec l'avènement annoncé des enquêtes web ou CAWI (Computer Assisted Web Interviews). Dans notre dossier « La révolution des enquêtes en ligne » publié en 2005, nous nous sommes sentis obligés, pour convaincre du caractère bien réel des transformations en cours, de décortiquer le processus d'adoption des enquêtes en ligne et de comparer la fiabilité du CAWI avec celle des autres méthodes (notamment le CATI). Il faut dire qu'à l'époque, les enquêtes web étaient loin de faire l'unanimité. Beaucoup de professionnels les rejetaient ou s'en méfiaient, affirmant qu'elles ne pouvaient être représentatives et qu'elles étaient entachées de défauts structurels rédhibitoires qui devaient les cantonner à des applications spécifiques et complémentaires aux études classiques menées généralement par téléphone ou en face à face. On sait se qui s'est passé Précision importante : Nous entendons par « enquêtes mobiles » de véritables questionnaires administrés sur des terminaux intelligents et pour lesquels les répondants peuvent être sollicités par mail, SMS, QR-Code ou tout autre moyen. Nous n'aborderons donc pas dans ce dossier les simples échanges par SMS de questions et réponses ou mots-clés qui n'entrent pas dans le même champ d'investigation.
depuis : En très peu de temps, le CAWI s'est imposé sur tous les marchés, balayant les méthodes classiques sur son passage et obligeant même les plus récalcitrants à adopter cette nouvelle méthode. Aujourd'hui, tout porte à croire que nous sommes à l'aube d'une nouvelle révolution, d'encore plus grande ampleur, avec l'avènement annoncé des enquêtes mobiles sur tablettes et smartphones. La déferlante des appareils mobiles (cf encadré cidessous) et les avantages évidents et distinctifs qu'ils offrent pour le recueil instantané de données « enrichies » (à la fois en termes de process et de nature des insights collectés) permettent d'envisager de nombreuses applications d'études avec des contenus, des objectifs et des modes opératoires nouveaux. La baisse continuelle du prix des matériels associée à une augmentation permanente des possibilités et des performances rendent les technologies mobiles particulièrement séduisantes. C'est pour cela que la problématique de beaucoup de professionnels des études n'est plus de s'interroger aujourd'hui sur l'opportunité d'avoir recours à l'enquête mobile mais plutôt de connaître les techniques de mise en oeuvre et d'imaginer les processus pour une utilisation concrète du CAMI (Computer Assisted Mobile Interviews), à travers un réseau d'enquêteurs équipés ou en sollicitant directement des répondants, des consommateurs ou des panélistes sur leurs propres matériels. Contrairement à ce que nous avions fait
dans notre dossier CAWI il y a quelques années, nous ne prendrons donc pas la peine dans ce dossier sur les enquêtes mobiles de chercher à prouver l'imminence du CAMI, tellement celle-ci semble évidente. Nous allons plutôt nous concentrer sur les aspects concrets de cette nouvelle technologie, en montrant ce qui existe déjà en termes d'applicatifs, ce qui peut être fait en substitution ou en prolongement des méthodes classiques et comment le faire concrètement et tout de suite.
Des smartphones et des tablettes partout Depuis la sortie du premier iPhone d'Apple en 2007, le nombre d'utilisateurs de smartphones a explosé. Au premier trimestre 2012, d'après une étude menée par CCM Benchmark, 19,4 millions de français possédaient un smartphone. 4,3 millions de ces utilisateurs avaient déjà utilisé leur mobile pour acheter des biens ou des applications. Toujours selon la même étude, la France compterait aujourd'hui 2,5 millions d'utilisateurs de tablettes numériques. Ce marché progresse aujourd'hui à très grande vitesse partout dans le monde, au gré des nouvelles inno18
Survey Magazine Avril 2013
vations et offres technologiques de plus en plus alléchantes, couplées à une baisse continue des prix. L'institut Gartner estime que les ventes de smartphones et tablettes (qu'on peut regrouper sous l'appelation terminaux intelligents) ont atteint 821 millions d'unités en 2012 et qu'elles dépasseront le milliard d'unités en 2013. Nous commençons à voir arriver des smartphones d'entrée de gamme à moins de 200 euros, avec des caractéristiques équivalentes à celles des appareils de milieu de gamme de l'année dernière. Fin 2013, nous devrions avoir accès, partout
en France, au réseau 4G. Selon le suédois Ericsson, la planète sera couverte à 85% par la connexion 3G à l'horizon 2017. A cette date, la moitié de la population mondiale aura accès également à la 4G. L'Europe de l'Ouest qui compte environ 540 millions d'abonnés à un forfait mobile, devrait voir ce chiffre augmenter de 100 millions d'ici 2017. Selon plusieurs études comme celle d'EMarketer, on comptera plus d’utilisateurs d'Internet mobile que fixe dès cette année (2013).
DOSSIER
Les avantages distinctifs de l'enquête mobile
L
'utilisation des tablettes et des smartphones pour les enquêtes mobiles améliore le confort et l'efficacité de certains types d'enquêtes et apporte plusieurs nouvelles possibilités non envisageables avec d'autres techniques d'interview. Elle offre notamment la possibilité de diffuser des questionnaires plus complexes qu'avec d'autres techniques (à part le CAWI), et une économie de moyens bénéfique à l'environnement : pas de document papier, pas de transport ... L'enquête mobile englobe deux modes d'interrogation : l'administration de l'enquête aux répondants par un réseau d'enquêteurs munis chacun d'un équipement mobile (tablette ou smartphone) et la sollicitation directe du correspondant pour répondre à l'enquête sur son propre équipement mobile (généralement un smartphone). Ces deux approches sont très différentes et bénéficient chacune d'avantages distinctifs spécifiques.
Enquêtes mobiles administrées par des enquêteurs
Sollicitation des répondants sur leur smartphone ou tablette
Les enquêtes mobiles administrées par des enquêteurs que l'on équipe de smartphones ou, le plus souvent, de tablettes, permettent de bénéficier des avantages suivants : La possibilité de collecter des données sur le terrain en temps réel et de manière interactive, La possibilité de saisir des informations impossibles à prendre autrement : coordonnées GPS du lieu de l'enquête, photo d'un point de vente ou d'un produit (DLC, emballage...), lecture d'un code-barres ou d'un QR-Code, capture vidéo d'une réponse ou d'un geste effectué par l'interlocuteur (choix d'un produit dans un rayon par exemple...), Une ergonomie optimale pour l'administration du questionnaire (filtrages dynamiques, affichages conditionnels, rotations de réponses ou de questions...), Des possibilités nouvelles d'interaction avec le répondant au travers de la présentation simplifiée de vidéos ou de photos, La possibilité de consulter à distance des bases de données ou des informations dynamiques (quotas...), en mode connecté, Une facilité maximale et une grande rapidité pour le déploiement de l'enquête vers les postes des enquêteurs et pour la récupération des réponses collectées, Moins de temps passé par l'enquêteur pour l'administration de l'enquête et pour les échanges de données (économie), Une sécurité des données transférées en temps réel ou stockées sur le mobile (possibilité de conserver une sauvegarde même après la synchronisation).
Lorsqu'on demande à des répondants de répondre à des enquêtes directement sur leur propre matériel, ces questionnaires mobiles auto-administrés offrent les avantages suivants : La possibilité de relever automatiquement certaines informations impossibles à avoir autrement (sauf en CAWI pour certaines d'entre elles) : coordonnées GPS du lieu de l'enquête, date et heure automatiques, temps passé à répondre à chaque question et/ou à l'ensemble du questionnaire... La possibilité de demander au répondant des éléments qu'il ne pourrait pas donner autrement : photo d'un lieu ou d'un produit (DLC, emballage...), lecture d'un code-barres, capture vidéo d'une réponse ou d'un geste... La possibilité de joindre les cibles plus facilement et plus rapidement qu'avec d'autres techniques, La possibilité de contacter des personnes qu'on ne peut plus toucher autrement (le mobile a déjà remplacé le fixe pour beaucoup de personnes + l'internet mobile est utilisé à titre principal par un nombre croissant d'internautes), Une interaction directe avec les consommateurs à travers leur outil de communication personnel, La possibilité de demander aux consommateurs de répondre à l'enquête dans un contexte ou un moment particulier (ex : dans le point de vente, lorsqu'ils voient une publicité pour le produit, lors d'une utilisation du produit, à un moment précis de la journée, etc.) Attention : certains des avantages ci-dessus ne sont pas accessibles en mode web sur mobile mais uniquement au travers de l'utilisation d'une application dédiée (cf pages suivantes).
Dans les deux cas, les nouvelles possibilités qu'apporte cette technologie d'enquêtes permettent d'envisager des types d'applications radicalement nouvelles par rapport aux techniques d'investigation classiques. Des applications originales ont déjà vu le jour mais l'essentiel reste à inventer. Il convient également de noter que pour l'instant, le phénomène de nouveauté des enquêtes mobiles permet d'assurer un taux de retour plus important que pour d'autres méthodes qui suscitent un rejet croissant (enquêtes téléphoniques mais aussi, sollicitations web trop nombreuses).
Survey Magazine Avril 2013
19
DOSSIER
Les types d'enquêtes mobiles
L
a première chose à savoir lorsqu'on veut aborder l'univers des enquêtes mobiles est qu'il existe deux moyens bien distincts de répondre à un questionnaire sur un Smartphone ou une tablette.
Enquête web sur mobile Cette première méthode consiste à utiliser le navigateur du mobile (Safari, Android Browser, Opera Mini, Symbian, etc..) pour remplir un questionnaire web standard ou conçu spécifiquement pour les matériels mobiles (mise en page pour des écrans de petite taille). Dans ce cadre, le matériel mobile doit tout naturellement être connecté pour accéder au web et renseigner l'enquête en direct. Il peut s'agir d'une connexion wifi, si on fonctionne dans un lieu déterminé (ex : un salon professionnel, un musée...). En revanche, les utilisations courantes nécessitent une connexion 3 ou 4G et donc, l'abonnement correspondant. Dans le cadre de cette utilisation, les éléments ne sont pas stockés localement mais envoyés au serveur au fur et à mesure. La méthode online permet de s'adresser
directement aux répondants, sollicités pour renseigner une enquête. Elle ne nécessite aucune installation sur le mobile. Le répondant peut être sollicité par mail ou SMS, avec un lien qui le renverra directement sur l'enquête. On peut également l'envoyer sur l'URL de l'enquête avec un « Flash Code » ou « QR Code » qu'on lui proposera de photographier (depuis l'application permettant leur lecture). Cette méthode s'apparente finalement aux enquêtes web classiques, avec une différence principale liée à la taille de l'écran et à l'utilisation du tactile.
Applications d'enquêtes mobiles Cette deuxième méthode repose sur l'utilisation d'une application qui a été installée une fois sur le matériel mobile. Généralement, les applications mobiles sont téléchargées depuis une plateforme en ligne de distribution d'applications (App Store pour l'Iphone et l'Ipad, Google Play pour les matériels sous Android...). Il est possible, sur certains matériels (la plupart des tablettes Android par exemple), d'installer l'application d'enquêtes mobile à partir d'une carte SD.
L'utilisation d'une application mobile ne nécessite généralement pas d'être connectés lors de l'administration de l'enquête mais seulement de manière ponctuelle en amont de l'enquête pour télécharger le questionnaire à administrer et en aval, pour transférer les données recueillies au serveur d'enquêtes. Ici, les données sont stockées sur le matériel mobile et peuvent être conservées par mesure de sécurité, même après leur transfert au serveur. Du fait de la nécessité d'installer une première fois une application sur son matériel, cette méthode ne s'adresse généralement pas à des répondants occasionnels mais concerne plutôt l'administration du questionnaire par un enquêteur ou un panéliste ayant plusieurs enquêtes à renseigner. Les applications d'enquêtes mobiles offrent généralement de très nombreux avantages, notamment en ce qui concerne l'ergonomie de saisie qui peut exploiter toutes les possibilités des tablettes ou Smartphones (listes déroulantes, écrans de détail, zones d'information, meilleur contrôle du défilement qu'avec un navigateur...
Zoom sur Mobi-Survey Soft Concept a lancé fin 2012 une application d'enquêtes mobile très innovante, que vous pouvez télécharger gratuitement sur l'Apple Store pour vos Iphones ou Ipads, ou sur Google Play pour vos smartphones et tablettes Android. Cette application permet d'administrer des enquêtes en plusieurs langues (la langue de l'appareil est détectée et choisie par défaut). A la première utilisation de l'application, la personne qui a chargé Mobi-Survey sur son matériel clique sur "Télécharger une nouvelle enquête" et entre un code qui lui a été fourni (essayez DEMO). Il peut également scanner un QRcode correspondant à l'enquête à télécharger. L'application se connecte alors au serveur et charge l'enquête correspondante sur l'appareil. L'utilisateur peut alors la lancer pour saisir un ou plusieurs questionnaires (ex : audit de magasin, enquête en face à face...). La saisie peut être effectuée en mode déconnecté, sans aucune couverture (ni wifi, ni gprs). Lorsque l'utilisateur est en zone couverte, il lui suffit de cliquer sur le bouton "Synchroniser" pour que toutes les réponses saisies repartent au serveur. Il reçoit également de manière automatique d'éventuelles autres enquêtes prévues pour lui. En effet, les enquêtes sont disponibles sur un serveur dans l'application Survey-Manager M. A partir du 20
Survey Magazine Avril 2013
moment où une personne se connecte une première fois à ce serveur, son identifiant est intégré dans la liste des correspondants. Cela permet de suivre ses retours et de lui attribuer de nouvelles études qu'il recevra à sa prochaine synchronisation. Les nouvelles études peuvent être créées avec le logiciel Net-Survey M qui est capable de générer des études multi-plateformes, fonctionnant à la fois sur les mobiles et sur les navigateurs web. Ces études sont déployées en quelques clics sur le serveur Survey-Manager M pour être accessibles aux correspondants. Par rapport aux enquêtes web, celles qui sont remplies sur les mobiles avec Mobi-Survey disposent des fonctionnalités supplémentaires suivantes : capture photo, capture vidéo, capture son (commentaire, réponse à une question...), capture de la position GPS, signature sur le mobile, capture d'un code-barre... Toutes les autres fonctions classiques des enquêtes web sont gérées : choix unique, multiple, classement, champs numériques, dates ou heure, tableaux simples ou mixtes, rotation de questions et de blocs, affichages et masquages conditionnels, branchements conditionnels, remplissage automatique à partir de bases externes ou embarquées...
Démos disponibles sur www.soft-concept.com
Appstore
GooglePlay
Vous pouvez télécharger Mobi-Survey gratuitement en flashant le QR Code ci-dessus
DOSSIER
PRATIQUE
Les 4 phases de l'enquête mobile Qu'il s'agisse d'une enquête web sur mobile ou d'une enquête destinée à fonctionner avec une application mobile comme Mobi-Survey, la démarche globale de gestion du projet est sensiblement la même que pour les enquêtes web classiques. Elle fait appel à des outils de conception avec des fonctionnalités similaires. Le mieux d'ailleurs est de disposer d'outils unifiés, capables de générer des enquêtes multicibles, adaptées à la fois aux périphériques mobiles, aux navigateurs web classiques et aux applications mobiles.
P
our bien expliquer et illustrer les différentes étapes, nous ferons référence ci-dessous aux modules de la solution d'enquêtes mobiles de Soft Concept, déjà évoquée dans l'encadré cicontre.
1. Conception de l'enquête La première étape pour réaliser une enquête mobile consiste, comme pour les autres types d'enquêtes, à concevoir le questionnaire. Voyons quelles sont les caractéristiques et les spécificités des supports d'enquêtes mobiles et des outils de conception correspondants.
Similitudes avec l'enquête web Lorsque le questionnaire est destiné à fonctionner directement sur les navigateurs des smartphones et des tablettes des correspondants, ce n'est ni plus ni moins qu'un questionnaire web adapté aux spécificités du support et notamment à la taille de l'écran. La conception du questionnaire pour une enquête mobile se fait donc généralement dans les mêmes outils que pour une enquête web. Il peut s'agir de logiciels installés sur le poste de l'utilisateur ou d'applications web accessibles à distance en mode SaaS (Software as a Service). En revanche, lorsque le questionnaire est destiné à fonctionner avec une application installée sur le périphérique mobile, la conception de l'enquête est le plus souvent réalisée avec des outils spécifiques, conçus pour ce seul usage. Il s'agit généralement d'applications accessibles directement sur le site de l'éditeur et qui permettent de définir les questions et de publier le questionnaire mobile. Pour éviter d'avoir 2 outils différents pour les 2 types d'enquêtes mobiles (en mode connecté et en mode déconnecté) et pour les enquêtes web classiques, certains éditeurs de solutions de collecte de données
ont intégré les spécificités des 3 modes dans des outils unifiés. C'est notamment le cas pour Soft Concept, qui a sorti une version "M" comme Mobile (et Multiplateformes) de son outil de création d'enquêtes électroniques "Net-Survey". Avec "Net-Survey M", l'utilisateur peut concevoir son questionnaire puis le générer à la fois pour le web classique, le web mobile et le mode application mobile. L'application mobile de Soft Concept s'appelle Mobi-Survey (cf encadré) et peut être téléchargée gratuitement par les répondants sur l'App Store ou sur Google Play. Elle permet de gérer l'enquête en mode mobile connecté ou déconnecté. Le questionnaire peut comporter, comme pour le web, toutes les fonctionnalités avancées usuelles : rotations, masquages conditionnels, charte graphique... Une autre caractéristique commune à l'enquête web et à l'enquête mobile réside dans la nécessité de placer le questionnaire sur une plateforme de type web. L'objectif est de permettre : aux répondants qui passent par un navigateur web ou mobile : d'accéder à l'enquête et d'y répondre en mode connecté, aux répondants qui disposent d'une application type Mobi-Survey sur leur smartphone ou tablette : de télécharger l'enquête dans l'application pour y répondre sans être connectés, puis de retourner les réponses par synchronisation avec la plateforme. Dans la solution de Soft Concept, la plateforme "Survey-Manager" est disponible comme "Net-Survey" dans une version M (Mobile et Multi-plateformes), qui permet de déployer à la fois les enquêtes web, les enquêtes pour browsers mobiles et les enquêtes pour applications mobiles. La sollicitation des répondants est également gérée de manière centrale à partir de cette plateforme unifiée (accessible sur les
serveurs de l'éditeur ou qui peut être installé et accédée sur un serveur web de la société ou de l'institut client).
Spécificités de l'enquête mobile L'une des différences majeures entre l'enquête web et l'enquête mobile réside dans la taille des écrans sur lesquels s'affichera le questionnaire. La mise en page de ce dernier doit être conçue pour s'adapter aux écrans des tablettes et surtout des smartphones, bien plus petits que ceux des micro-ordinateurs. Il faut de ce fait prévoir des dispositions différentes des questions non seulement entre les navigateurs web et les navigateurs mobiles mais parfois même entre les smartphones et les tablettes. Le concepteur est également amené parfois à découper différemment les pages de son questionnaire selon le matériel cible. Pour éviter d'avoir à faire plusieurs questionnaires différents, les logiciels avancés prévoient aujourd'hui un mode de fonctionnement multi-cibles, permettant de donner plusieurs mises-en-forme au même questionnaire. C'est le cas de NetSurvey M qui déploie en même temps 2, 3 voire n versions adaptées à différents écrans d'affichage, avec détection automatique de la taille du navigateur qui accède au questionnaire afin de servir à chaque appareil la version la plus adaptée. Même si la présentation diffère d'un écran à l'autre, les réponses sont bien sûr stockées dans un seul fichier de données. Il existe une alternative à ce mode multicibles, qui est le recours à des gabarits en HTML 5. Dans ce cas, on peut concevoir des questionnaires qui s'adaptent tout seuls à l'écran qui les affiche, avec par exemple des zones qui se mettent côte à
Survey Magazine Avril 2013
21
DOSSIER côte ou à la suite, selon la place disponible. C'est ce qu'on appelle en langage web le "Responsive Design". L'avantage est d'avoir en une seule version un système adaptable mais il existe 3 inconvénients : la difficulté de création qui fait appel à des concepts de mise en page HTML avancés, le fait de pouvoir adapter une même page mais pas de changer le découpage du questionnaire, la nécessité d'être sûrs qu'en face, les utilsateurs disposent de navigateurs compatibles HTML 5. Concernant ce dernier point, il faut savoir que les navigateurs mobiles et les dernières versions des navigateurs web (IE9 ou supérieur, Chrome, Safari, Firefox) traitent correctement le HTML 5. Mais ce ne sera pas le cas notamment des version précédentes d'Internet Explorer, encore très répandues. Une autre spécificité à prendre en compte lorsqu'on cible les mobiles est l'interface tactile qui requiert une approche spécifique pour être agréable. Ainsi, les cases à cocher habituelles des navigateurs web destinées à être cochées avec la souris, sont trop petites et pas assez confortables pour un cochage au doigt. Il convient donc de les remplacer par des cases (généralement dessinées) un peu plus grandes et avec un design graphique adapté.
Capture d'éléments additionnels Les smartphones et les tablettes disposent de capacités de capture photo, vidéo et son. En outre, ils intègrent pour la plupart une puce GPS qui permet, même en mode non connecté, de localiser leur position. Il est important de savoir que les navigateurs ne peuvent pas avoir accès à ces dispositifs matériels. Contrairement à ce qu'imagine le néophyte, les questionnaires mobiles fonctionnant en mode web dans les navigateurs ne peuvent donc pas prendre de photo ou enregistrer une position GPS. En revanche, les applications d'enquêtes mobiles peuvent, elles, accéder à la caméra, à la puce GPS et aux autres dispositifs matériels. C'est le cas de Mobi-Survey qui peut capturer des photos, des vidéos, des
22
Survey Magazine Avril 2013
séquences sonores, la position GPS au moment de la saisie... Ces fonctionnalités permettent d'envisager des applications nouvelles avec des capacités d'interaction accrues avec le répondant et des remontées de réponses enrichies avec des contenus multimédia jadis difficiles à obtenir.
2. Déploiement sur un serveur Une fois l'enquête mobile créée, l'étape suivante consiste à l'installer sur la plateforme centrale pour la mettre à la disposition des répondants et cela, quel que soit le mode de réponse attendu. Même si l'enquête a été conçue à l'aide d'un logiciel installé en local sur le poste de l'utilisateur, le déploiement sur la plateforme se fait généralement en ligne. Les plateformes comme Survey-Manager M prévoient un bouton de type "Déployer une nouvelle enquête" qui demande de désigner le fichier de l'enquête stocké en local (avec un bouton Parcourir). La plateforme télécharge le fichier désigné sur le serveur, le décompresse et installe ses différents éléments sur la plateforme web. A partir de ce moment, le questionnaire est disponible et peut être accédé à distance par les répondants. La problématique maintenant consiste à prévenir les répondants de la disponibilité de ce questionnaire. Il y a pour cela plusieurs moyens, selon le contexte et les exigences de votre enquête : Si l'enquête est en accès libre et qu'elle peut être remplie par n'importe qui, vous pouvez communiquer l'adresse de cette enquête par un moyen de votre choix : lien sur votre site web, envoi d'un mail d'information à une liste d'adresses, envoi de sms à une liste de mobiles, impression du lien vers l'enquête sur vos documents (factures, courriers, bons de livraison...) en clair ou sous la forme d'un QR Code qui renvoie sur l'enquête... Si l'enquête est destinée à une liste de correspondants connus (ex : acheteurs d'un produit, clients, collaborateurs...), vous pouvez leur adresser à chacun, depuis la plateforme un mail personnalisé incluant un lien qui positionnera chaque correspondant directement sur son questionnaire (en pré-remplissant éventuellement des informations venant d'une base associée). Si l'enquête doit être remplie par des enquêteurs ou des panélistes sur MobiSurvey par exemple, la plateforme Survey-Manager M vous permet de cocher, dans un tableau qui présente en ligne les enquêteurs et en colonne les études installées, les cases d'affectation d'une ou plusieurs enquêtes aux personnes de votre choix. Vous pouvez alors leur adresser une notification qui apparaît sur leur mobile.
Dès l'appui sur la notification, MobiSurvey se lance et exécute automatiquement la synchronisation qui a pour effet de récupérer les données en attente sur le mobile et de télécharger la ou les nouvelles enquêtes. Ce processus de synchronisation peut également être demandé à tout moment par l'utilisateur, sans attendre de recevoir forcément une notification. Le système de notification va encore plus loin que le lancement de la synchronisation puisqu'il permet d'adresser aux correspondants des sollicitations uniques qui provoquent le lancement de Mobi-Survey, le chargement d'une enquête, le positionnement sur la première question et, en fin de questionnaire, le renvoi des réponses et la désinstallation de l'enquête (enquêtes ponctuelles "one-shot" auprès de panélistes par exemple).
3. Saisie des réponses sur le mobile Vu du côté du répondant, l'enquête web mobile peut être remplie sur le navigateur du mobile, en mode connecté. L'accès au questionnaire peut se faire de différentes manières : en cliquant sur un lien reçu par email ou SMS, en tapant l'adresse dans le navigateur, en flashant un QR Code (nécessite une application dédiée installée sur le mobile). L'enquête peut comporter plusieurs pages. Les résultats sont envoyés au serveur à chaque passage d'une page à l'autre. L'ergonomie générale du questionnaire est du même ordre que les formulaires habituels. Les saisies de zones textuelles ou numériques font automatiquement apparaître le clavier standard de l'appareil. Les enquêtes qui fonctionnent sur les applications mobiles sont accédées différemment. Elles nécessitent d'abord une première installation de l'application. A partir de là, l'utilisateur accède à un questionnaire donné, la première fois : en cliquant sur une notification qui peut lancer l'application, télécharger le questionnaire et se placer sur la première question, en allant dans l'application et en entrant un code qui lui a été fourni et qui va télécharger le questionnaire, en allant dans l'application et en cliquant sur le bouton de synchronisation qui chargera le ou les questionnaires nouveaux qui lui sont destinés. Si la personne doit accéder une nouvelle fois à ce même questionnaire (ex : un enquêteur qui interviewe plusieurs personnes ou audite plusieurs magasins, un
DOSSIER ou ludification que l'on évoque beaucoup aujourd'hui pour tout ce qui touche au marketing et à l'interaction avec les clients).
4. Récupération des données et traitement
Exemple de questions gérées sur une application d'enquêtes mobiles (Mobi-Survey).
panéliste qui doit remplir le même questionnaire à fréquence régulière...), il lui suffit de lancer l'application et de cliquer sur le questionnaire choisi. On peut également envisager d'envoyer des notifications qui vont lancer un questionnaire existant à des moments précis (ex : tel jour à telle heure pour savoir où la personne a déjeuné ce jour-là...). L'ergonomie des questionnaires qui fonctionnent sur des applications mobiles est nettement supérieure à leur équivalent sur web mobile. Ils peuvent intégrer des éléments plus complexes et mieux présentés, avec des systèmes de réponses avancés (curseurs, drag and drop, associations, séquences vidéo, zones de dessin ou de signature...). Ces possibilités permettent d'envisager des questionnaires plus ludiques et plus faciles à renseigner (ce qui va dans le sens du concept de gamification
COHDA 81, boulevard Pierre 1er, 33110 LE BOUSCAT Tél : 05 16 57 07 30 - Fax : 05 56 42 02 89
Le transfert des données dépend du type d'enquête mobile : Les réponses données aux enquêtes web sur mobile remontent en temps réel et alimentent généralement un fichier de données unique. Les réponses aux enquêtes réalisées sur des applications mobiles peuvent remonter soit en temps réel en fin d'enquête si celle-ci est réalisée alors que le mobile ou la tablette sont en zone de couverture wifi ou GPRS, soit à un autre moment, pour les enquêtes réalisées en mode déconnecté. C'est d'ailleurs ce mode qui est généralement préféré puisqu'on déconnecte la réalisation de l'enquête sur le terrain de la transaction avec le serveur, et qu'on peut en même temps charger sur le périphérique mobile d'autres enquêtes qui lui sont destinées. Quelques systèmes d'enquêtes mobiles qui ont généralement succédé chez certains éditeurs à des applications CAPI sur PDA (que l'on appelait aussi des Pocket PC), proposent en option une récupération de l'information sur cartes SD. Techniquement, cette méthode peut s'envisager aujourd'hui uniquement avec certains appareils sous Android équipés de lecteurs SD. Ce n'est bien sûr pas le cas sur les iPads et iPhones d'Apple. Cette façon de faire est limitée et contraignante, même si elle semble rassurer des personnes habituées à procéder ainsi avec leur parc de PDA. Outre les manipulations fastidieuses et les échanges
manuels, par mail ou au travers d'utilitaires de transfert adhoc, ce processus nécessite généralement une logistique particulière pour la gestion et la consolidation des différents fichiers en provenance des différents PDA. Notons au passage que les PDA qui ont fait les beaux jours du CAPI et qui équipent encore aujourd'hui beaucoup d'instituts d'études sont devenus complètement obsolètes avec l'arrivée des smartphones. Ces appareils, jadis proposés par de grands constructeurs comme HP, Dell ou Sony ne sont plus du tout disponibles aujourd'hui sur le marché (sauf quelques versions industrielles de constructeurs asiatiques, pour des usages particuliers). Concernant maintenant le traitement des données remontées des saisies mobiles, le processus est exactement le même que pour les autres enquêtes. Il faut juste pointer qu'étant donné que la saisie par application mobile permet de faire remonter des éléments multimédias et des contenus spécifiques comme les coordonnées GPS, il convient d'avoir recours à des logiciels capables de traiter ce type d'éléments. Dans l'univers Soft Concept, cela est prévu dans le logiciel de traitement Ethnos qui, outre ses capacités bien connues d'analyse de données et de reporting, est en mesure de produire automatiquement des cartographies Google Maps en utilisant les coordonnées GPS. Il peut également produire des tris états qui peuvent intégrer les photos capturées (ex : dans un audit de magasin, tri état filtré de tous les points où la propreté a été jugée insuffisante, avec les photos correspondantes). Avec Web-Reports, Ethnos peut produire des rapports automatiques en ligne, qui peuvent être calculés en temps réel au fur et à mesure de la remontée des données du terrain. C'est beau le progrès !
Une gamme complète de solutions d’études B to B et B to C pour : Mieux connaître vos marchés : Étude de marché, étude de potentiel, étude d’usages et d’attitudes, étude de concurrence, étude de segmentation Optimiser votre offre : Test de concept, test de produit et de service, optimisation de mix-produit (prix, nom, stratégie de gamme) Ajuster vos actions de communication : Étude d’image et de notoriété, pré et post-test d’efficacité publicitaire, étude de lectorat, étude de positionnement Piloter le management de votre relation client : Étude de satisfaction clients, mesure de la qualité de service (visites, appels, écoutes et e-mails mystères), étude de résiliation, étude réclamants Écouter vos salariés : Étude de climat social, étude miroir Concerter les citoyens : Étude d’opinion, concertation citoyenne
DOSSIER
Quel matériel choisir pour vos enquêtes mobiles ?
Smartphones iPhone 5
iPhone 4S
iOS 6
iOS 6
Processeur
Apple A6
Apple A5
Mémoire RAM
1024 Mo
512 Mo
Résolution écran
326 dpi
326 dpi
Taille de l'écran
4 pouces
3,5 pouces
128,3 x 58,6 x 7,6
115 x 58,6 x9,3
112
140
Capacité (Go)
16/32/64
8/16/32/64
Connectique
Lightning
30 broches
Carte mémoire
non
non
LTE/4G
oui
non
WIFI
oui
oui
5 Go
5 Go
Autonomie (communication)
8h
8h
Autonomie (navigation web)
4h30
4h30
SIRF III (A-GPS)
SIRF III (A-GPS)
à partir de 679 €
à partir de 399 €
Système d'exploitation
Dimensions (mm)
Avec la déferlante de matériels toujours plus puissants et moins chers, on a du mal à choisir. Voici deux tableaux dans lesquels nous reprenons les meilleurs matériels du marché avec leurs principales caractéristiques. Même si nous avons nos petites préférences (qui commencent par un i), tous les matériels ci-dessous sont de qualité et conviennent aux enquêtes mobiles.
Poids (g)
Stockage en ligne
GPS Prix constructeur
Tablettes Système d'exploitation
iPad Mini
iOS6
iOS6
Sony Xperia Tablet S
Google Asus Nexus 7
Google Samsung Nexus 10
iOS6
Android 4.1
Android 4.2
Android 4.2
Nvidia Tegra 3
Exynos 5 Dual
Apple A5X
Apple A6X
Apple A5
Mémoire RAM
1024 Mo
1024 Mo
1024 Mo
2048 Mo
1024 Mo
2048 Mo
Résolution écran
264 dpi
264 dpi
163 dpi
224 dpi
216 dpi
300 dpi
Taille de l'écran
9,7 pouces
9,7 pouces
7 pouces
10,1 pouces
7 pouces
10,1 pouces
Définition (pixels)
2048 x 1536
2048 x 1536
1024 x 768
1920 x 1200
1280 x 800
2560 x 1600
Dimensions (mm)
185,7 x 241,2 x 9,4
185,7 x 241,2 x 9,4
134,7 x 200 x 7,2
177,2 x 266 x 69
120 x 198,5 x 10,45
177,6 x 263,9 x 8,9
652
652
308
495
340
603
16/32/64
16/32/64/128
16/32/64
32/64
8/16/32
16/32
Micro USB
Micro USB / micro HDMI / NFC
Poids (g) Capacité (Go)
30 broches
Ligthning
Ligthning
Micro USB / micro HDMI / NFC
Carte mémoire
non
non
non
Micro SD
non
non
WIFI
oui
oui
oui
oui
oui
oui
3G
oui
oui
oui
oui
non
non
4G
non
non
non
oui
non
non
Autonomie
10h
10h
10h
12h
8h
8h
A partir de 309€
A partir de 509€
A partir de 339€
A partir de 499€
A partir de 399€
A partir de 399€
Connectique
Prix constructeur
iPad 4 Retina
Qualcomm Snapdragon S4 APQ8064
Processeur
24
iPad 3
Survey Magazine Avril 2013
DOSSIER
Samsung Galaxy S4
Samsung Galaxy S3
Google LG Nexus 4
HTC One
Samsung Galaxy Note 2
LG Optimus
Android 4.2.2
Android 4.1.1
Android 4.2
Android 4.1.2
Android 4
Android 4.1.2
Exynos Octa
Exynos 4412
Qualcomm APQ8064
Qualcomm Snapdragon 600
Exynos 4412
Qualcomm APQ8064
2048 Mo
1024 Mo
2048 Mo
2048 Mo
2048 Mo
2048 Mo
441 dpi
306 dpti
318 dpi
468 dpi
265 dpi
318 dpi
5 pouces
4,8 pouces
4,7 pouces
4,7 pouces
5,3 pouces
4,7 pouces
136,6 x 69,8 x 7,9
136,6 x 70,6 x 8,6
133,9 x 68,7 x 9,1
137,4 x 68,2 x 9,3
151,1 x 80,5 x 94
131,9 x 68,9 x 8,5
130
133
139
143
180
145
16/32/64
16/32/64
8/16
32/64
16/32/64
32
MicroUSB, NFC, HDMI
MicroUSB, NFC
MicroUSB, NFC SlimPort HDMI
MicroUSB, NFC
MicroUSB, NFC
MicroUSB, NFC
MicroSD
MicroSD
non
non
MicroSD
MicroSD
oui
oui
non
oui
oui
oui
oui
oui
oui
oui
oui
oui
oui
55Go
5Go
25Go
5Go
5Go
15h
13h20
15h
13h
13h40
15h
7h
6h30
5h40
6h15
10h30
5h30
Google Maps Navigation (A-GPS)
SIRF III (A-GPS)
Google Maps Navigation (A-GPS)
Google Maps Navigation (A-GPS)
Google Maps Navigation (A-GPS)
Google Maps Navigation (A-GPS)
à partir de 600 €
à partir de 549€
à partir de 299 €
à partir de 649 €
à partir de 569 €
549 e
Samsung Galaxy Note 10.1
Samsung Galaxy Tab 2 7.0
Samsung Galaxy Tab 2 10.1
Archos 80 G9 Turbo
Archos 101 G9 Turbo
Asus Transformer Pad Infinity TF700T
Android 4.0.4
Android 4.1
Android 4.0.3
Android 4.0.3
Android 4.0.3
Android 4.1.1
Exynos 4212
TI OMAP 4430
TI OMAP 4430
TI OMAP 4
TI OMAP 4
Nvidia Tegra 3
2048 Mo
1024 Mo
512 Mo
512 Mo
512 Mo
1024 Mo
149 dpi
170 dpi
160 dpi
160 dpi
149 dpi
224 dpi
10,1 pouces
7 pouces
8 pouces
8 pouces
10,1 pouces
10,1 pouces
1280 x 800
1024 x 600
1024 x 768
1024 x 768
1280 x 800
1920 x 1200
180 x 262 x 8,9
193,7 x 122,4 x 10,5
256,6 x 175,3 x 9,7
155 x 226 x 11,7
167 x 276 x 12,6
181 x 263 x 8,5
603
344
588
528
645
602
16/32/64
8/32/64
32/64
8/16
8/16
32/64
Micro USB / micro HDMI
Micro USB / micro HDMI
Micro.USB / HDMI
HDMI (option) / USB
USB
USB
MicroSD
MicroSD
MicroSD
oui
oui
oui
oui
oui
oui
oui
oui
oui
oui
oui
oui
non
non
non
non
non
non
8h
6h
7h
7h
5h
8h
A partir de 499€
A partir de 219€
A partir de 270€
A partir de 270€
A partir de 280€
A partir de 459€
MicroSD & MicroSDHC MicroSD & MicroSDHC
MicroSD & MicroSDHC
Survey Magazine Avril 2013
25
DOSSIER
GUIDE ESOMAR DES BONNES PRATIQUES POUR LA RÉALISATION D'ENQUÊTES MOBILES
Respect des lois et règlements régionaux, nationaux ou locaux Face au développement rapide des technologies de communication, seuls quelques pays ont adopté un cadre juridique pour réguler les communications non sollicitées et les interactions avec les utilisateurs d'appareils mobiles. Ces réglementations sont d'autant plus compliquées que les appareils mobiles offrent aux utilisateurs des moyens de communications variés. Dans certains cas, l'enquêteur peut être considéré comme légalement responsable d'actions résultant de sa sollicitation. Il est donc nécessaire que les chercheurs soient conscients des législations régionales, nationales et locales sans négliger les spécificités culturelles de certaines régions qui pourraient rendre encore plus strictes les processus d'enquête. Dans tous les cas, les chercheurs doivent être conscients des préoccupations concernant la confidentialité et le respect de la vie privée. Ils ne doivent pas faire des approches non sollicitées par mail ou SMS aux participants potentiels, même dans les pays où cela est encore autorisé. Cela ne s'applique pas aux correspondants qui ont déjà été en relation avec une entreprise ou une organisation. Les chercheurs doivent aussi réduire les désagréments éventuels de ces sollicitations en prévoyant des messages brefs et un objet clairement indiqué.
Consentement des répondants Les chercheurs doivent toujours obtenir le consentement éclairé de chaque participant avant de collecter et de traiter tout type de données personnelles. Ils doivent être totalement transparents sur les don26
Survey Magazine Avril 2013
nées qu'ils ont l'intention de recueillir, les fins pour lesquelles elles seront collectées, les moyens mis en oeuvre pour les protéger et les tiers qui y auront accès. L'information doit être claire, concise, visible et ne pas tromper ou induire les participants en erreur. La participation à l'étude est toujours volontaire et les participants doivent être autorisés à retirer leurs données personnelles à tout moment. Comme avec les autres formes de collecte de données d'études, les chercheurs doivent informer les participants aux enquêtes mobiles de leur politique de confidentialité, en expliquant comment les données personnelles qu'ils collectent seront traitées. Les éléments standards de la politique de confidentialité devraient inclure : l'identification de la société chargée de l'étude et ses coordonnées, des informations de contact, une garantie de confidentialité, une promesse de ne pas induire en erreur sur la nature de l'étude, un rappel que les participants sont volontaires, peuvent se retirer à tout moment et demander que leurs données soient supprimées ou rectifiées, un énoncé clair sur tout tracking, cookies ou collecte passive de données et sur les données ainsi récupérées, une description de l'endroit où les données personnelles seront stockées et comment elles seront protégés.
Protection des données personnelles La législation sur la protection des données s'applique uniquement aux données personnelles identifiables et non à des
ensembles de données où il est impossible d'identifier une personne. Par exemple, l'inclusion dans un fichier d'un nom, d'une adresse, adresse électronique ou numéro de téléphone créerait des données personnellement identifiables. C'est également le cas lorsqu'un emplacement géographique exact ou un code postal peuvent être combinés avec d'autres informations et permettre l'identification des personnes. Les chercheurs doivent s'assurer que les ensembles de données ou d'autres matériaux (photos, enregistrements audio et vidéo, documents papier...) collectés pour des études de marché et qui contiennent des informations personnelles identifiables sont conservés en toute sécurité et ne servent qu'à des fins d'étude. Les données personnelles identifiables ne peuvent être transmises à un utilisateur de l'étude que si le participant l'a autorisé de manière explicite et dans la mesure où aucune action commerciale n'en découlera. Les chercheurs sont invités à avoir un contrat écrit avec les clients utilisateurs de l'étude pour s'assurer que ces exigences seront respectées. Seules les données rendues anonymes peuvent être transmises à des clients utilisateurs de l'étude et utilisées à des finalités autres que l'étude. Les chercheurs doivent être attentifs en outre aux informations personnelles identifiables caractérisées comme « sensibles » et qui doivent être manipulées avec le plus grand soin. Avec les nouvelles méthodes de collecte de données mobiles, la protection des données personnelles est rendue plus complexe du fait d'une participation accrue des utilisateurs aux études et de cycles-projet globalement plus courts. Il est donc essentiel que les chercheurs évi-
DOSSIER En 2010, ESOMAR a publié un premier guide concernant l'utilisation des téléphones mobiles pour les études marketing. Ce guide abordait les considérations juridiques, éthiques et pratiques pour la conduite des études de marché en utilisant la voix ou la messagerie texte (SMS) pour contacter les répondants sur leurs téléphones mobiles. Depuis lors, l'utilisation de dispositifs mobiles de toutes sortes (smartphones, tablettes, ordinateurs portables et autres appareils mobiles similaires) a augmenté de façon spectaculaire dans le monde et, dans le cas des smartphones et des tablettes, a permis une nouvelle gamme de méthodes de recherche . Il s'agit notamment des sondages en ligne, de la collecte passive de données, de la géo-localisation, de la remontée de données ouvertes contextuelles, des journaux en ligne et d'autres formes de recherche ethnographique mobile où les répondants enregistrent leur mouvements et ceux d'autres tous les jours, en ayant recours parfois à la prise de photos et de vidéos. Depuis lors, les applications de marketing mobile ont continué à se développer en nombre et en sophistication. Ces applications recueillent aujourd'hui de grandes quantités de données personnelles et il n'est pas toujours clair pour les consommateurs de savoir quelles données sont collectées et comment ces données sont utilisées. Des problèmes se posent donc en matière d'information du consommateur, de choix et de consentement ainsi que dans les domaines de la sécurité des données et de la responsabilité. C'est pour répondre à ces problématiques qu'ESOMAR a décidé d'étendre ses recommandations initiales pour y inclure la conduite des études de marché, des études sociales et des études d'opinion en ayant recours à des appareils mobiles. Ces nouvelles recommandations ont été conçues en partenariat avec la MMRA (Mobile Marketing Research Association) pour promouvoir les relations respectueuses avec les personnes contactées à des fins de recherche et d'aider les chercheurs à tenir compte des considérations juridiques, éthiques et pratiques dans la conduite des études de marché mobile. Nous vous en avons résumé ci-dessous les principes clés :
tent que les utilisateurs de la recherche n'entendent ou ne voient par inadvertance des informations qui peuvent être définies comme des données personnelles. De même, les livrables intermédiaires ou le partage de documents via des applications de type portail en ligne doivent être conçus avec les mêmes protections que pour les livrables finaux. La législation sur la protection des données précise normalement le droit individuel d'accès aux données personnelles et le droit de rectification des erreurs éventuelles. Ce droit d'accès ne s'applique plus si les données sont anonymisées. Si des données personnelles doivent être transférées du pays de collecte vers un autre, le chercheur doit s'assurer que ce transfert est légal et que toutes les mesures raisonnables ont été prises pour assurer une sécurité adéquate et pour maintenir les droits de protection des données des personnes. Ceci est également valable si vous utilisez un serveur situé dans un autre pays pour collecter les données personnelles ou, si l'enquête est traitée en Cloud Computing. Le chercheur doit expliquer ce processus dans sa politique de confidentialité et fournir les garanties appropriées pour protéger les données personnelles ainsi transférées.
Pas de conséquences néfastes Un autre principe clé du Code ICC / ESOMAR est que les droits des participants à la recherche en tant que particuliers doivent être respectés et qu'ils ne doivent pas être lésés ou subir de nuisances suite à leur participation à une étude. Les chercheurs doivent être conscients que les données personnelles stockées sur
l'appareil mobile d'un participant sont potentiellement accessibles à des tiers si l'appareil est volé ou utilisé par un tiers. C'est le cas des données stockées dans les applications de collecte de données installées sur l'appareil, les photos qui peuvent être prises dans le cadre d'une étude et les messages (par SMS ou e-mail) utilisés pour transmettre des données. Il est essentiel que les participants soient au courant de ces risques et que les chercheurs protègent ces données personnelles, en les cryptant et les sécurisent par des mots de passe. On peut également expliquer aux répondants comment supprimer les données après l'étude. Contrairement à la plupart des autres méthodes de recherche, les participants aux études mobiles peuvent supporter des coûts liés à leur participation. Bien que ces coûts éventuels varient considérablement selon le fournisseur, le pays et l'abonnement, ils peuvent inclure les frais de téléchargement de données, d'accès au web, d'utilisation de la messagerie texte, de dépassement du volume de données échangées, de frais d'itinérance (roaming) et les frais standard des communications téléphoniques. Le chercheur doit, tant que possible, concevoir l'étude pour qu'elle ne coûte rien aux participants. A défaut, le chercheur doit être prêt à offrir une compensation. Lorsque les participants mobiles sont ajoutés à un panel ou une base de données d'échantillonnage, la question du coût et de la rémunération doivent être convenus dès l'inscription. Les chercheurs doivent aussi informer les participants avant d'installer ou d'activer les applications que celles-ci peuvent dégrader la durée de vie de la batterie. Le
chercheur doit prendre toutes les précautions raisonnables pour s'assurer que les répondants ne seront pas lésés du fait de leur participation à la recherche. Certaines méthodes de recherche mobiles impliquent de demander aux participants d'aller à des endroits ou d'effectuer des tâches spécifiques. Dans de tels cas, les chercheurs doivent donner la consigne aux participants de ne rien faire qui pourrait les mettre en danger ou enfreindre la loi. Il faut notamment leur indiquer de ne pas se servir de leur appareil mobile en conduisant et de ne pas prendre des photos dans des endroits ou des situations où cela est interdit.
Enfants Les chercheurs doivent prendre des précautions particulières lors de la réalisation d'études auprès d'enfants et de jeunes. Une autorisation vérifiable et explicite doit être obtenue d'un parent ou du tuteur légal (ci-après dénommé «parent») pour inviter un enfant à participer à une étude ou pour installer une application sur son téléphone mobile. Les chercheurs doivent respecter toutes les lois et les codes nationaux concernant spécifiquement les enfants et les jeunes en notant que la définition de l'âge des enfants varie d'un pays à l'autre. Là où il n'existe pas de définition spécifique nationale, les personnes âgées de moins de 14 ans doivent être considérés comme des « enfants » et les 14-17 ans comme des « jeunes ». Ces tranches d'âge correspondent à différents stades de développement mental et psychologique. Lors d'un premier contact avec un participant potentiel dont on pourrait raisonna
Survey Magazine Avril 2013
27
DOSSIER blement penser qu'il s'agit d'un enfant, les chercheurs doivent demander l'âge de la personne avant toute autre donnée personnelle. Si l'âge déclaré est inférieur au niveau national admis sur la définition d'un enfant, l'enfant ne doit pas être invité à fournir des données plus personnelles avant que l'autorisation appropriée n'ait été obtenue. Le chercheur peut demander à l'enfant de fournir les coordonnées de ses parents pour que l'autorisation puisse leur être demandée. La demande doit inclure tous les renseignements pertinents sur l'étude, comme évoqué plus haut. Lorsque des données personnelles recueillies auprès d'enfants ne sont utilisées à des fins de recherche et qu'aucune donnée personnelle n'est transmise à d'autres fins, l'autorisation peut être un email de retour d'un parent ou une autre méthode appropriée, en conformité avec les lois et les codes nationaux. Une autorisation préalable des parents n'est pas nécessaire pour recueillir auprès d'un enfant l'adresse e-mail du parent en mesure d'autoriser l'étude ni pour recueillir l'âge d'un enfant à des fins de dépistage et d'exclusion.
Réputation de la profession Les chercheurs ne doivent rien faire qui pourrait nuire à la réputation de la profession en évitant les activités et les pratiques qui pourraient nuire à la confiance du public dans la recherche marketing. Chaque fois que cela est possible, la personne contactée doit être en mesure de communiquer avec le chercheur en appelant un numéro affiché, pour établir ainsi l'identité du chercheur. Il est conseillé de fournir un numéro de téléphone sans frais, tout en reconnaissant que le répondant peut avoir besoin d'appeler le chercheur sur une ligne fixe.
Applications téléchargeables Lorsque les chercheurs installent des applications sur les appareils mobiles interactifs ou lorsque la recherche nécessite l'utilisation d'applications basées sur le Web, ils doivent obtenir le consentement des répondants et offrir un mécanisme approprié pour donner leur autorisation et un emplacement ou un lien pour consulter la politique de confidentialité de la société. Les chercheurs doivent également divulguer aux participants potentiels le but de l'application, les données spécifiques qu'elle recueille ou télécharge, et tout impact qu'elle pourrait avoir sur le fonctionnement d'autres applications installées ou les performances de l'appareil en général. Dans la mesure du possible les chercheurs doivent s'assurer que toute application nécessaire dans le cadre de la recherche : n'installe pas un logiciel qui modifie28
Survey Magazine Avril 2013
ment du répondant avant la collecte et le traitement des données issues de ces méthodes passives, ou anonymiser les données de manière efficace, sachant que le consentement est quand même nécessaire pour les données sensibles et pour installer des applications et technologies sur les appareils. Le fait de détecter automatiquement le type d'appareil utilisé par un participant n'est pas considéré comme une acquisition de données personnelles, puisque le but de cette détection est d'optimiser les performances et le rendu de l'enquête sur le dispositif concerné.
rait les paramètres de l'appareil au-delà de ce qui est nécessaire à l'étude ou qui provoquerait un conflit avec le système d'exploitation ou altérerait le fonctionnement d'autres logiciels installés, n'installe pas un logiciel caché ou qui serait difficile à désinstaller, n'installe pas un logiciel qui fournit du contenu publicitaire, à l'exception des logiciels de tests de publicité, n'installe pas des mises à jour sans en avertir les utilisateurs et donner au participant la possibilité de se retirer, n'expose pas les données personnelles à des risques lors de leur transmission ou de leur stockage, ne change pas la nature de toute technologie d'identification et de suivi sans avertir l'utilisateur, n'omet pas d'informer l'utilisateur sur les pratiques de confidentialité liées à la mise à niveau du logiciel, ne recueille pas des données identifiables qui pourraient être utilisées à des fins autres que l'étude concernée.
Collecte passive de données La collecte passive de données désigne une famille de méthodes de recherche qui acquièrent des données personnelles des participants sans passer par le système traditionnel qui consiste à leur poser des questions. Les sources de collecte passive de données comprennent les données de navigation Web, les cartes de fidélité et les scanners de magasins, la géo-localisation de données à partir de périphériques mobiles et certains types de données en provenance de médias sociaux. Bon nombre de ces sources de données sont désormais accessibles via le mobile. Ces évolutions entraînent un besoin croissant de différencier les études de marché des autres activités pour assurer une transparence vis-à-vis des répondants au sujet de l'information qui est recueillie. Dans beaucoup de pays, certaines de ces activités sont contrôlées par des lois sur la protection des données mais peuvent soulever des problèmes éthiques ou légaux. Les chercheurs doivent avoir le consente-
Prise de photo, enregistrements vidéo et audio La capacité des appareils mobiles de capturer, stocker et transmettre des photographies, des enregistrements vidéo et audio a fourni un nouvel ensemble d'outils que les chercheurs peuvent intégrer dans leurs méthodologies. Deux exemples frappants où ces capacités ont amélioré les méthodes traditionnelles sont les études ethnographiques et les enquêtes mystère. Chaque fois qu'une image numérique contient un visage clairement visible et permet d'identifier la personne, elle entre dans la catégorie des données personnelles. Par conséquent, toutes les photos, enregistrements vidéo et audio recueillis, traités et stockés pour un projet de recherche doivent être traités comme tels. Ces éléments ne peuvent être transmis à un utilisateur de la recherche ou au client à moins que le participant ne donne sa permission. Même dans ce cas, l'usage est restreint à des fins d'étude. Les données qui ont été anonymisées (ex. par pixelisation ou modification de la voix), peuvent être transmises à un client utilisateur de l'étude qui peut s'en servir à d'autres fins. Il peut y avoir des cas où une personne autre que le participant est capturée dans une photo ou une vidéo et où il est difficile, voire impossible, d'obtenir une autorisation. Il peut s'agir par exemple de personnel du magasin ou de passants. Même si ces personnes ne sont pas définies comme participantes à l'étude, le chercheur a néanmoins la responsabilité de leur accorder le même respect et protection de la confidentialité qu'aux participants à l'étude. Certains types d'études peuvent impliquer de photographier, filmer ou enregistrer dans les lieux publics impliquant des personnes qui n'ont pas été recrutées en tant que participants à la recherche. Dans de tels cas, les chercheurs doivent obtenir la permission de partager ces images des personnes clairement identifiables. Si l'autorisation ne peut être obtenue, l'image de l'individu doit être pixelisée ou subir un autre traitement pour être rendue anonyme. Les chercheurs doivent aussi mettre en garde les participants contre la
DOSSIER prise de photos ou d'enregistrements dans des endroits où cela n'est pas autorisé comme les bâtiments publics, les banques, les écoles, les aires de sécurité des aéroports, les espaces privés ou toute autre zone où une interdiction de photographier ou de filmer est affichée. Dans tous les cas, les chercheurs doivent être conscients de toutes les lois applicables et des coutumes locales afin de mener leurs recherches de manière appropriée. Enfin, les chercheurs doivent prendre des précautions particulières lorsque des enfants sont photographiés ou filmés. Cela ne doit jamais se faire sans l'autorisation du parent ou du tuteur légal. Cette exigence porte sur les espaces publics où les chercheurs devraient éviter de capturer des images d'enfants, même parmi les passants ou en arrière-plan. Dans les images d'enfants capturés par inadvertance, les visages doivent être masqués ou pixelisés afin de protéger leur identité.
Enquêtes client-mystère Ces enquêtes client-mystère sont un cas particulier dans la mesure où les sujets de l'étude ne savent pas qu'ils sont observés. Les chercheurs qui effectuent des enquêtes client-mystère doivent s'assurer autant que possible que la vie privée est respectée et que les sujets de recherche ne seront pas désavantagés ou lésés en aucune façon à la suite de ces travaux. Leurs données personnelles doivent être protégées et aucune des photographies ou enregistrements ne peuvent être partagés avec le client utilisateur de la recherche, sauf si l'autorisation du sujet a bien été obtenue.
Données incidentelles A l'ère numérique, beaucoup de données personnelles sont enregistrées incidemment et sont générées à l'issue de transac-
tions ou des activités quotidiennes. Un téléphone mobile enregistre non seulement la liste des appels émis ou reçus mais peut également situer son propriétaire. Ces données de localisation sont collectées de manière légitime à des fins comme la facturation ou l'acheminement des appels. Ces données personnelles peuvent être traitées à ces fins, bien qu'elle ne contiennent généralement pas beaucoup d'informations utiles du point de vue de la recherche marketing. Elles ne doivent pas être analysées à des fins différentes, par exemple pour connaître les numéros fréquemment appelés afin d'offrir des rabais spécifiques, ou identifier les destinations de vol pour les grands voyageurs afin de leur adresser des offres spéciales pour ces destinations. Ces données comportementales peuvent se révéler utiles quand elles sont combinées avec d'autres informations sur les habitudes des clients, leurs attitudes ou leurs caractéristiques, donc en combinant des fichiers de données personnelles indépendantes (ce qu'on appelle généralement l'enrichissement de bases de données). Cela est permis à condition que les critères suivants soient respectés : l'enrichissement répond à un objectif d'étude clair comme l'augmentation de la valeur analytique des données, le participant est informé et accepte, aucune action (type envoi de messages de marketing) n'est effectuée en direction d'un participant par la suite, le processus d'enrichissement est conçu de telle sorte que l'identité de chaque participant ne soit jamais divulguée sans son consentement.
Conception appropriée Lors des études auprès des répondants sur
les appareils mobiles, le chercheur doit s'assurer que toute tâche donnée au participant (par exemple une enquête, un journal ou un forum de discussion) est d'une longueur appropriée et qu'elle est présentée dans un format adapté, optimisé pour les périphériques utilisés. Bien que la recherche continue à évoluer, les éléments actuels suggèrent que les répondants s'attendent sur les mobiles à des interactions plus courtes que dans les autres modes (enquêtes téléphoniques, réunions de groupe...). En raison de la petite taille de l'écran sur certains appareils mobiles, il est important que toutes les instructions, les questions ou les formulaires soient affichés de manière claire et concise.
Listen s.a Rue Grand Aaz 31 B-4680 HermĂŠe - Belgium
Tel : +32(0)4 229 85 45 Fax : +32(0)4 229 85 51
info@listen.eu www.listen.eu
APPLICATIONS Par Kevin Touati ktouati@ethnosoft.com
?
Réseaux Sociaux Le nouvel eldorado de la recherche marketing
Survey Magazine Avril 2013
31
APPLICATIONS
L
e boum des réseaux sociaux suscite chez les professionnels du marketing une curiosité très intéressée. Certains y flairent la solution au problème grandissant du consommateur insaisissable. On espère pouvoir, au travers de ces nouveaux espaces, le joindre, le cerner, le séduire ou le fidéliser plus facilement. Les ouvrages sur le sujet se multiplient et l'intérêt des marketeurs ne faiblit pas devant tout ce qui, dans la presse ou les manifestations professionnelles, évoque ce sujet. Beaucoup de grandes entreprises B to C sont déjà bien positionnées sur les réseaux sociaux. D'autres s'y préparent, explorant les apports et les applications possibles, et soucieuses de ne pas « louper le coche ». Et il y a de quoi animer cette ferveur : Facebook par exemple annonce désormais 1 milliard de comptes ouverts. En France, près de la moitié de la population fréquenterait ce réseau (environ 25 millions de comptes ouverts !). D’autres plateformes présentent également des comptes impressionnants : 190 millions d’utilisateurs pour LinkedIn, 200 millions pour Twitter et 300 millions d'utilisateurs actifs pour Google Plus !
Les attraits pour les études L'univers des réseaux sociaux concentre une quantité impressionnante d'avantages pour la recherche marketing : Des coûts très réduits, voire inexistants pour être présent sur le support (via une simple création de profil), La possibilité de cibler et sélectionner très facilement des échantillons quali-
fiés et de grande taille, La facilité pour contacter et solliciter
les répondants sans avoir à rechercher des emails, des adresses postales ou des numéros de téléphone, La liberté d’expression des sondés qui n'interagissent plus avec un enquêteur, La rapidité pour obtenir les réponses et les feedbacks, La disponibilité permanente des sondés dans le temps et dans l'espace (joignables n'importe quand, n'importe où, grâce aux appareils mobiles notamment), La facilité pour suivre les retours (en temps réel avec mise en évidence immédiate des évolutions qui permettent d'ajuster sa démarche), La suppression du biais lié aux enquêteurs ou à la resaisie des informations collectées, L'amélioration du lien entre la marque et le consommateur et l'établissement de relations privilégiées, La possibilité d'échanger avec des professionnels sur les réseaux B to B...
Les applications possibles Les réseaux sociaux peuvent permettre d'identifier et d'entrer en contact facilement avec les populations à interroger. Voici les principaux domaines d'application actuels :
Echantillonnage : L'identification des utilisateurs des réseaux sociaux et l'accès à leurs informations personnelles (âge, sexe, formation, région, centres d'intérêt...) permet un ciblage exceptionnel. Des instituts commencent à développer des services de panels consommateurs sur Facebook.
Diffusion d'enquêtes : Facebook est le 2ème site le plus visité au monde derrière Google avec son milliard d'utilisateurs dans le monde (dont 25 millions en France). Un utilisateur sur deux se logue quotidiennement. LinkedIn, site de réseau professionnel et concurrent du français Viadeo, a doublé son nombre d'abonnés en un an, atteignant à présent les 2 millions de comptes dans le monde. Le site compte une activité encore plus soutenue que les sites communautaires non professionnels. Le partage d'informations étant le but premier des réseaux sociaux, la diffusion d'enquête sur ces médias coule de source.
Plates-formes consommateurs : Créer un groupe sur un site communautaire est chose aisée. Adopter leur fonctionnement pour créer son propre site l'est également. C'est ce que font déjà plusieurs grandes marques pour récolter les avis de 32
Survey Magazine Avril 2013
leurs panels de consommateurs sur des produits tests ou des habitudes de consommation.
Communication B to C mais également B to B : Le social media fait partie intégrante de l'Inbound marketing. Diffuser l'information sur les réseaux sociaux permet d'attirer des personnes qui viendront spontanément. Les groupes permettent également de renforcer les relations entre collaborateurs et d'optimiser le flux d'informations et d'idées au sein d'une entreprise et de son environnement (clients, fournisseurs).
Les 3 étapes pour mener une enquête sur réseaux sociaux La réalisation d'une enquête via les réseaux sociaux s'apparente globalement à ce que l'on fait habituellement pour n'importe quelle enquête en ligne. Les 3 phases consistent donc : tout d'abord à concevoir, mettre en page et déployer le questionnaire, ensuite à solliciter les répondants et à gérer le terrain d'enquêtes, enfin, à traiter les données collectées pour les analyser et présenter les résultats. Voyons maintenant les modalités concrètes de réalisation de chacune de ces 3 étapes.
Etape 1 : Conception du questionnaire Il existe deux façons de procéder pour créer un questionnaire et utiliser les réseaux sociaux par la suite. La première consiste à faire exactement comme pour n'importe quel autre questionnaire web, à savoir, utiliser votre logiciel habituel de création d'enquêtes en ligne (Net-Survey par exemple) pour concevoir le questionnaire et le déployer sur un site web. Les personnes sollicitées via le réseau social se verront donc proposer, dans leur message de sollicitation, un lien URL qui les redirigera vers le site de l'enquête. La deuxième méthode consiste à utiliser les fonctionnalités du réseau social utilisé (s'il y en a) ou des applications d'enquêtes conçues dans et pour le site communautaire, afin de définir les questions à poser. Généralement, les possibilités dans ce domaine sont très réduites par rapport à l'utilisation d'outils spécialisés, ce qui réserve cette méthode à des cas très simples ou à des utilisations ponctuelles. Chacune des deux possibilités comporte des avantages et des inconvénients. La première solution est plus professionnelle mais plus coûteuse. Elle offre la possibilité de gérer des questionnaires longs et/ou complexes, avec des fonctionnalités avan-
APPLICATIONS cées (masquages conditionnels, rotation de modalités ou de questions...). Ces questionnaires peuvent adopter la charte graphique de l'entreprise. Les données recueillies peuvent être analysées de manière approfondie et donner lieu à des représentations graphiques avancées. Pour en savoir plus sur la conception d'enquêtes web professionnelles, consultez nos différents articles sur le sujet sur la version web du Survey Magazine. La solution intégrée au réseau social offre l'avantage d'une plus grande simplicité et rapidité. Le concepteur n'a pas à gérer le déploiement de son questionnaire sur un site puisque ses questions sont prises en charge directement dans le réseau social et le sondé reste sur le site pour répondre. En revanche, le questionnaire est lié au site communautaire utilisé et doit être, en cas d'opérations sur plusieurs réseaux sociaux, reconstruit à chaque fois. Par ailleurs, l'exploitation des résultats est limitée aux restitutions généralement simplifiées prévues par chaque application interne au réseau social utilisé. Dans tous les cas et quelle que soit la méthode utilisée, il convient de veiller à proposer des questionnaires optimisés à la fois en termes de présentation, de clarté, de concision et de contenu, afin de s'assurer un maximum de remontées. Vous pouvez trouver des conseils utiles en la matière en consultant notre article sur le site « Enquêtes en ligne : comment optimiser vos taux de réponses ».
Etape 2 : Gestion du terrain d'enquêtes Pour administrer un questionnaire sur les réseaux sociaux, le principe est généralement de diffuser la sollicitation concernant ce questionnaire aux profils de répondants souhaités et/ou de placer la sollicitation sur son propre espace. Les réseaux sociaux offrent un potentiel de ciblage extraordinaire. En effet, la connaissance des profils détaillés des membres permet de proposer des critères de sélection extrêmement fins : âge, métier, loisirs, centres d'intérêts, zone géographique... Le concepteur de l'étude peut donc définir ses critères afin que son message avec le lien correspondant (vers une enquête dans le réseau social ou sur un site externe) s'affiche dans l'espace de tous les membres correspondants à ces critères. Le réseau social indique en direct le nombre de membres concernés en fonc-
tion des critères choisis, afin de faciliter le ciblage. Généralement, ces fonctions sont payantes et s'apparentent à la diffusion de publicités. Le paiement est calculé pour un nombre d'affichages défini à l'avance. Pour en savoir plus et avoir un exemple détaillé de la manière de solliciter les répondants sur Facebook, consultez notre article en ligne sur « L'utilisation de Facebook pour vos enquêtes ». Pour se focaliser sur des échantillons spécifiques, les sites qui développent des groupes d'utilisateurs offrent les possibilités les plus intéressantes et sont à sélectionner selon l'objectif de l'étude : Ainsi, Facebook par exemple permet de cibler des personnes ayant un centre d'intérêt commun. Des sites professionnels comme Viadeo ou LinkedIn donnent la possibilité d'approcher des personnes ayant la même profession ou la même formation. Pour
Conseil et études en développement durable Observer pour comprendre
Enquêtes et consultation des parties prenantes, benchmark, observatoires...
Innover pour agir
Responsabilité Sociétale des Entreprises (RSE), Agenda 21, éco-innovation…
Accompagner pour durer
Formation, conduite du changement, évaluation, valorisation
APPLICATIONS créer le buzz, l'outil parfait est le site de microblogging Twitter. Ce réseau permet de diffuser un message informant de l'enquête (avec le lien vers le site où elle est accessible). Les personnes intéressées peuvent "re-tweeter" l'information et la relayer ainsi à d'autres répondants potentiels. Cette diffusion "virale" s'apparentant au bouche-à-oreille est très rapide et peut se répéter à un rythme soutenu. Pour les enquêtes auprès des consommateurs, il est préférable d'éviter les sites professionnels genre LinkedIn ou Viadéo car le taux de réponses serait presque nul. A contrario pour les enquêtes visant les professionnels, il ne faut pas hésiter à utiliser Facebook et surtout Twitter. Voici quelques conseils pratiques pour mettre en évidence votre enquête sur les réseaux sociaux les plus utilisés : Sur Facebook, partagez votre enquête via la boîte de partage sur votre mur. Ciblez vos répondants grâce aux différents groupes facilement identifiables. Vous pouvez aussi créer une publicité ciblée qui diffusera votre questionnaire. Pour en savoir plus et accéder à notre article sur l'utilisation de Facebook pour vos enquêtes marketing, jetez un oeil sur notre site. Sur LinkedIn, vous pouvez poster votre enquête à deux endroits différents en plus de l'envoi d'une publicité : Via la boîte de partage sur la page d'accueil ou dans la rubrique « Réponse » avec l'option « poser une question ». Twitter est un media incroyable pour créer le buzz. Même si la mention « retweet » (poster à nouveau) est automatiquement disponible en dessous de chaque post, n'hésitez pas à le redemander dans votre message. Testez différents messages dans votre tweet jusqu'à ce que vous trouviez celui qui attire le plus d'activité. Diffusez, sur Youtube, une vidéo qui explique pourquoi vous faites cette étude et affichez l'Url de votre enquête à la fin. Enfin, affichez le lien de votre enquête en dessous de la vidéo. Sur votre site web ou blog, vous pouvez créer un pop-up (attention toutefois à ne pas incommoder les visiteurs en le faisant apparaître trop fréquemment). Le mieux est de bien attirer l'attention sur une partie de votre site. Permettez à vos visiteurs de s'inscrire sur votre site pour recevoir une newsletter ou des avantages quelconques. Il convient, bien sûr, de ne pas oublier de placer sur le site les boutons des réseaux sociaux auxquels vous êtes inscrit. E-mail : Classez votre base de correspondants pour pouvoir envoyer votre enquête à des groupes spécifiques en 34
Survey Magazine Avril 2013
un clic. Dans votre mail, pensez à insérer vos profils sur les réseaux sociaux. A la fin de chaque enquête, placez des boutons de partage sur les réseaux sociaux. Ainsi, le répondant aura la possibilité d'un seul clic de transférer l'enquête à une sélection ou la totalité de ses contacts. Bien sûr, si vous appartenez à des groupes (forums…) postez votre enquête. Recherchez (parmi vos contacts ou autre) des « key influencers » qui donneront du poids à l'intérêt de votre enquête.
Etape 3 : Exploitation des résultats Comme pour toute enquête, il convient de bien avoir à l'esprit que l'objectif principal du recueil de données sur les réseaux sociaux réside dans l'analyse des résultats. Le questionnaire doit avoir été conçu dans ce but, et comporter les questions et variables permettant d'obtenir les analyses souhaitées. De même, l'échantillon interrogé doit permettre par ses caractéristiques de tirer des enseignements statistiquement valables de l'enquête. Les possibilités de traitement dépendent de la méthode utilisée pour concevoir le questionnaire : Les questionnaires conçus avec les fonctions ou des applications internes aux réseaux sociaux peuvent être analysés avec les fonctionnalités prévues à cet effet dans chaque réseau social utilisé. Ainsi, sur Facebook par exemple, les fonctions de base permettent d'indiquer pour chaque question, le nombre de répondants ayant choisi chacune des réponses. Certaines applications internes de Facebook permettent de produire des histogrammes ou des barres de répartition, guère plus. Certaines d'entre elles proposent toutefois d'exporter les enregistrements des réponses au format Excel ou CSV, pour un retraitement externe. Les questionnaires conçus avec les logiciels d'enquêtes web habituel (ex : NetSurvey) peuvent être traités avec l'outil prévu à cet effet (pour Net-Survey, il s'agit du logiciel de traitement d'enquêtes et de reporting Ethnos). Ces outils offrent généralement des possibilités très étendues de croisement des données et de production de tableaux et graphiques d'analyse statistique avancée. Ainsi, le module Stat'Mania
Lectures conseillées Ouvrages disponibles sur :
www.surveymag.eu
d'Ethnos peut produire à partir des seules questions portant sur la satisfaction une matrice importance/satisfaction qui calcule automatiquement l'importance de chaque critère dans la satisfaction globale. Certains de ces logiciels disposent de fonctions de production de rapports automatiques recalculés et générés pour chaque niveau souhaité (par population, région, secteur, type de produit...). Certains outils disposent également de modules de diffusions d'application dynamiques d'accès aux résultats sur le web (ex : Web-Reports).
Perspectives d'avenir C'est désormais un fait acquis : les médias sociaux représentent la nouvelle frontière pour les marketeurs de tout poil. Pour paraphraser Kennedy, on peut dire qu'audelà, s'étendent des domaines inexplorés, des problèmes non résolus, des poches d'ignorance et de préjugés non encore réduites et des questions laissées sans réponse, du moins pour l'instant. La présence des marques sur les réseaux sociaux est devenue aujourd'hui un enjeu majeur pour la plus petite entité comme la multinationale. Cependant, être présent et relater ses informations ne veut pas dire que l'on écoute ou comprend ses auditeurs. Les études de marché et la connaissance des clients font partie de ces possibilités et vont immanquablement se développer à grande vitesse, étant donnés les multiples avantages qu'offrent les réseaux sociaux. L'arrivée en force de Google avec Google+ et la montée en puissance très impressionnante de Facebook et de Twitter notamment ne feront que renforcer ce mouvement inéluctable.
APPLICATIONS
GLOWBL
la plateforme quali de nouvelle génération
A
fin de mieux comprendre et appréhender les attentes de nos consommateurs, il nous faut les solliciter de façon permanente ou au moins très régulière. Cependant il est difficile de les contraindre à se déplacer fréquemment et de monopoliser leur temps. Les solutions en ligne règlent une partie du problème mais rien ne remplace vraiment les échanges directs et visuels comme dans les focus groups. Rêvons quelques instants… Imaginons de réunir des personnes sans qu'elles n'aient besoin de quitter leur domicile ou leur lieu de travail. Imaginons de réunir des clients, d'importants décideurs, des chefs d'entreprise, répartis aux quatre coins du monde sans qu'aucun d'eux ne quitte son bureau… Cela simplifierait les études et économiserait du temps et de l'argent à tout le monde. Eh bien, cette solution existe ! La société lyonnaise Glowbl l'a développée. Glowbl est une plateforme de communication qui recrée l'instantanéité et la convivialité d'un véritable échange en vis à vis. La solution est actuellement testée par plusieurs sociétés dont Plebicom qui gère le site ebuyclub. Pour Alexandra Barrosso, responsable de communication de la société, Glowbl va permettre à l'un des dirigeants de l'entreprise de s'adresser directement à des prospects lors d'une prochaine réunion. « Il s'agira de faire une démonstration live du site et de les rassurer » sur le caractère opérationnel de la boutique en ligne, en leur permettant en plus de « mettre un visage sur une adresse web ». Le but final est d'en faire des utili-
sateurs actifs. En interne la plateforme va permettre aux équipes de Lyon et Paris de se retrouver dans un même espace pour travailler, partager les derniers développements techniques, sans avoir à perdre du temps et de l'énergie à se déplacer. La plateforme Glowbl est un outil de communication et de collaboration temps réel basée sur les interactions de groupes de taille illimitée. Sans aucun logiciel ou licence à installer, on accède à Glowbl avec un simple lien, servant d'invitation à rejoindre le groupe sur l'espace dédié. L'espace baptisé « Stage » (en anglais) est accessible soit de façon restreinte (quelques personnes identifiées) soit, au contraire, de façon élargie et virale, pour le plus grand nombre. Le « Stage » recrée les conditions d'une réunion traditionnelle organisée dans une salle ou amphi-théâtre classique, l'assemblée des participants étant représentée par des avatars-bulles. Loin d'ajouter un aspect « gadget » à la dimension sociale que nous connaissons
sur les réseaux habituels, Glowbl humanise les relations sur le web. On écoute, on se parle et on partage un contenu identique (PDF, vidéo ou photos…) au même moment avec les présents. En fonction de l'objet et de l'échantillon à étudier, Glowbl permet donc d'organiser et d'animer des focus groups à distance dans les conditions proches du présentiel. La caractère générique de la communication via Glowbl, permet aussi l'ouverture de « web stand » lors de salons. Les commerciaux ont donc la possibilité de discuter avec des prospects qui ne sont pas physiquement en face d'eux. C'est d'ailleurs cette option qui a retenu l'attention des organisateurs du salon Big Data, et qui sera testée lors du prochain rendez-vous à Paris les 3 et 4 avril 2013. Il y a vraiment fort à parier que Glowbl fera beaucoup parler de lui en 2013 !
En 2013, misez sur les études qualitatives online !
ed
Livre Blanc : « Les conseils pour réussir vos Bulletin Boards » A télécharger maintenant sur www.bulletinboard.fr
204, avenue de Colmar - 67100 Strasbourg - Tél. : 03.90.40.13.13 - www.edinstitut.com 27 années d'expertise des études marketing - Certification ISO 20254 - Membre du Syntec EMO
TECHNIQUES
par Daniel BO* daniel.bo@qualiquanti.com
De l'importance de l'image dans les études marketing Rapport entre les enfants et les écrans
L
es images sont devenues capitales à tous les stades d'une étude marketing. Voyons comment photos, vidéos, infographie et interactivité peuvent accentuer l'impact et l'appropriation d'une étude, transformant peu à peu les instituts en véritables producteurs de contenus éditoriaux. Les études ethnologiques s'inscrivent dans une logique d'immersion. Dès lors qu'on interroge des individus en situation, il est nécessaire de filmer pour restituer l'expérience dans toute sa richesse et éviter ainsi tout risque de déperdition.
Utiliser la vidéo et la photo dès le recueil Filmer permet d'accéder à la culture matérielle, bien au-delà de la verbalisation, mais génère une quantité de matière abondante qui nécessite un montage. En complément, la photographie est un atout pour capter le sens des situations. Il est d'ailleurs facile de demander aux interviewés de réaliser des photos et de les transmettre via Internet. Par ce procédé économique, un corpus important est généré. On est dans une logique de crowdsourcing, où le consommateur participe au travail de production.
Le DORMEUR. Une posture couchée, corps détendu, comme en état de sommeil. C'est le mode "cinématographique" de rapport à l'écran (plongé dans le noir, coupure du monde, assis/couché), comme si le spectateur voyait sur l'écran les images de son rêve.
Photos à grande échelle (1)
La photo à grande échelle Chez QualiQuanti, nous avons utilisé cette méthodologie photographique à grande échelle pour deux études publiées : une étude sur les rapports entre les enfants et les écrans, avec le recueil de 250 photos et commentaires via un questionnaire adressé aux parents. Cette masse critique de photos a mis au jour une typologie d'attitudes illustrée par des exemples convergents. Pour cette mission nous avons sollicité le panel TestConso.fr à travers un questionnaire invitant à produire des photos
Les couleurs et les motifs influencent les aliments "On essaie de varier les couleurs, et donc de privilégier les légumes plutôt que les féculents. Ca va dans le sens de mon régime et donc ça m'aide"
"Ce soir Guillaume a préparé des brocolis, mais pour égayer les couleurs il a ajouté des carottes. C'est plus joli et plus varié et peut-être plus équilibré."
Photos à grande échelle (2)
36
Survey Magazine Avril 2013
dans différentes situations (enfants face à différentes interfaces) et à associer des commentaires à ces photos. une étude concernant l'influence des arts de la table sur la manière de s'alimenter, via un quali online. Pour les arts de la table, nous avons remonté quelques centaines de photos sur les différentes situations de repas produites par une vingtaine de foyers dans la durée. Les 20 foyers participants devaient d'abord photographier leurs différents repas avec leur vaisselle habituelle. Ils étaient ensuite invités à choisir une nouvelle vaisselle, à l'utiliser et à se photographier en situation. La mise en perspective de ces photos a fait émerger du sens et permis de visualiser l'impact des arts de la table sur la manière de s'alimenter.
Le safari photos pour visualiser les situations Confrontés au sujet labyrinthique de la télévision connectée, nous nous sommes transformés en chasseurs d'images. L'enjeu était de faire partager tous les chemins menant à la TV connectée. Un diaporama d'une heure résume trois mois passés dans les dédales de ces nouveaux modes d'accès. Dans ce diaporama, nous avons intégré des screenshots des principales interfaces que les consommateurs sont amenés à utiliser. C'est en mettant côte à côte ces captures d'écran qu'on comprend les alternatives proposées aux consommateurs. On permet au lecteur de l'étude de gagner un
TECHNIQUES Hétérogénéïté des interfaces des box entre opérateurs
La solution consiste à utiliser le Slidecast : ce format de présentation synchronise une présentation visuelle avec un commentaire audio enregistré. Lors du visionnage, chaque utilisateur peut réécouter certaines parties ou sauter des passages en changeant de slide.
Le blog comme outil de diffusion
temps précieux en ayant sous les yeux toute la palette des possibles. Nous avons également mis en perspective des visuels des différents matériels pour faire comprendre les terminaux auxquels sont confrontés les consommateurs. Pour réfléchir à ce qui pourrait être la télécommande de demain, rien de mieux qu'un panorama illustré.
La vidéo pour créer une vision partagée Pour susciter une adhésion collective, il est intéressant de produire une vidéo. La vidéo permet de crédibiliser l'analyse en apportant une preuve tangible par l'image. Un rapport vidéo change davantage les perceptions du commanditaire que toute explication textuelle. Cela est d'autant plus vrai pour une population de commerciaux, par exemple.
L'image pour prouver L'image porte de manière plus fine les différents éléments d'analyse et de façon plus intelligible que le texte ou le graphe. Lors d'un test de moutarde en tube sur un mois auprès de 300 consommatrices, nous avons récolté près de 400 photos illustrant les différents usages du produit à diffé-
rents stades de maturation de usages. Le service de R&D a regardé ces photographies à la loupe.
Data visualisation Dans le domaine des études quantitatives, se développent aussi des outils de visualisation interactive des données. En journalisme, notons le budget 2013 de Barack Obama dans le New York Times ou le décodage chrono-géographique du Printemps arabe dans le Guardian. Pour Dataveyes start up spécialisée, « la visualisation interactive de données, c'est le branchement d'une base de données à une interface graphique, dans le but d'en faciliter l'exploration et la compréhension ». Les instituts d'études comme TNS ou l'INSEE utilisent ce type de visualisation pour transmettre certains résultats quantitatifs et permettre à chacun de jouer avec les données.
Le Slidecast pour diffuser une étude en catch up Pour ceux qui ne peuvent assister à la présentation orale ou ne parlent pas la langue, on peut créer des présentations portables multilingues lancées à la demande.
Différentes manières d'utiliser un produit Utilisation directe
Utilisation avec intermédiaire "cuillère"
Utilisation à 2 mains
Les instituts d'études convergent sur l'importance de l'image animée et l'interactivité. L'enjeu est de dépasser la vidéo verbatim, de type micro-trottoir, en restant dans un cadre budgétaire approprié (de 3 K€ à 40 K€). Le travail de mise en images n'est cependant qu'une étape vers la démarche de production et de diffusion de contenus.
La production éditoriale, nouvelle frontière des instituts d'études Avec les sondages publiés, les instituts d'études ont pris l'habitude de diffuser des contenus dans les médias. Cette présence était limitée à des données chiffrées, des commentaires et quelques analyses qualitatives. Avec l'accélération de la production de contenus par les marques, il y a une opportunité pour aller plus loin. Dans un contexte où les entreprises sont des agents culturels et ont vocation à devenir des leaders culturels, les société d'études peuvent aider les marques à rayonner sur leur thématique de prédilection.
A chaque entreprise son laboratoire L'entreprise est une force de frayage : elle a vocation à ouvrir de nouvelles voies à travers l'exploration de nouvelles pratiques, de nouveaux thèmes et talents. Chaque entreprise a vocation à s'interroger en profondeur sur son métier. Une entreprise de peinture doit travailler sur le rôle de la couleur dans la société. Pour une entreprise comme Atlantic, qui fabrique des radiateurs ou des climatiseurs, il est pertinent de s'interroger sur le confort thermique. Une marque d'automobile a un rôle à jouer sur des questions comme le design, le confort, la sécurité ou la ville. Etre leader dans son champ culturel passe par une posture de recherche. Aufeminin a ainsi créé Womenology.fr un laboratoire sur le Gender Marketing début 2011. Pour exister sur un plan éditorial, la puissance des études est précieuse en complémentarité avec le journalisme.
La veille internationale pour faire le tour du monde d'un sujet. Images pour prouver
Les sociétés d'études savent produire des benchmarks à très grande échelle puis les analyser afin de dégager des tendances et
Survey Magazine Avril 2013
37
DECRYPTAGE TECHNIQUES u n d é c y p t a g e s y n t h é t i q u e . Av e c http://veillebrandcontent.fr/, QualiQuanti a créé une plateforme incontournable sur le brand content avec plus de 2500 exemples identifiés, classés et taggés. Cette publication est un formidable outil de visibilité. Depuis fin 2012, PagesJaunes a lancé www.IdeesLocales.fr en recensant les meilleures initiatives locales des TPEPME du monde entier.
4 façons de visualiser le budget d'Obama pour 2013
Des contenus abondants grâce aux études La multiplicité des procédés d'enquête et la diversité des délivrables (matière brute et rapports d'analyse) permettent d'assurer une présence massive : richesse de verbatim des interviewés, best pratices, multiplication des regards d'experts et des angles d'investigation. Le niveau de détail de l'investigation offre la possibilité de produire des documents synthétiques et des rapports d'analyse sur des points précis. Cette matière très riche permet de maintenir une présence dans la durée et d'occuper l'espace. Elle permet d'assurer un référencement naturel optimal.
La diffusion des contenus issus des études Les instituts d'études disposent d'une palette de délivrables afin de rendre compte des résultats de multiples maniè-
Data-visualisation
res : blogs, livres blancs, vidéos, animations infographiques, etc En développant des capacités éditoriales, les instituts peuvent aider les entreprises à exister via des contenus informatifs de haut niveau. Ce savoir-faire associé à des
Lectures conseillées
capacités de recherche permet de faire référence. Par leur capacité à mobiliser les sciences humaines au service des contenus de marque, les instituts ont de belles potentialités de développement à condition d'apprendre l'éditorialisation. *Daniel Bô, Pdg de QualiQuanti et auteur de Pour des études marketing vivantes, qui vient d'être mis à jour. http://testconso.typepad.com/files/etudes vivantes2012.pdf Les différents livres blancs de QualiQuanti sont envoyés sur inscription à partir du lien suivant : http://bit.ly/A1AKYm
Ouvrages disponibles sur :
www.surveymag.eu
LE SPÉCIALISTE DE VOS ÉTUDES QUANTITATIVES ON-LINE
Plus de 20 ans d'expérience d'études marketing 10 ans d'enquêtes On-line Quelques millions de personnes sollicitées dans le monde
Axe & Cible s'est dotée des outils les plus en pointe de la technologie Internet pour réaliser vos études B to B. Ses atouts :
Rapidité Compétitivité
Efficacité Fiabilité
Flexibilité
Axe & Cible - Etudes Marketing - Tél. 01 46 49 50 80 - Votre contact : Marie-Flavie HARREAU - mfharreau@axeetcible.fr
DECRYPTAGE
LE BIG DATA sonne-t-il le glas des études marketing par Gérard DANAGUEZIAN gdanaguezian@ethnosoft.com
Chris Anderson, rédacteur en chef de Wired a publié en 2008 un article fondateur sur le concept du Big Data dans lequel il annonçait l'avènement d'une nouvelle manière de penser, avec les termes suivants : « Nous venons d'un monde de marketeurs où il y a le bon et le mauvais, une seule hypothèse que nous testons ou un bon modèle que nous voulons mesurer. Le Big Data n'a rien à voir avec ça. Nous devons penser comme Google ». Et Anderson d'expliquer que Google n'a jamais cherché à comprendre le contenu des sites à indexer ni à savoir pourquoi une page était meilleure qu'une autre. Ses algorithmes se sont seulement concentrés sur l'analyse statistique des liens entrants et d'autres paramètres purement mathématiques. Anderson en concluait que la taxinomie, l'ontologie et la psychologie ne servaient plus à rien et qu'il ne fallait plus désormais chercher à comprendre pourquoi les gens font ce qu'ils font mais juste constater qu'ils le font en suivant et en mesurant leurs comportements. « Avec suffisamment de données, les chiffres parlent d'eux-mêmes. » C'est là le champ d'application du Big Data, qui semble signer en même temps le glas du Market Research tel qu'on le connaît. En effet, à l'ère de l'information instantanée sur le comportement du consommateur, que valent encore les études et recherches qui tentent de détecter et modéliser des vérités dans un univers où l'objet de nos investigations est de plus en plus versatile et infidèle ? A quoi sert désormais de poser des questions, de faire des estimations et des extrapolations si on est capable d'observer directement les comportements et les réactions qui nous intéressent ?
Survey Magazine Avril 2013
39
DECRYPTAGE
P
our savoir comment le Big Data se positionne par rapport aux Etudes Marketing et voir les menaces ou les opportunités qu'il pourrait susciter, il convient de définir ce concept, de décrire ses modes de mise en œuvre et d'expliquer les apports concrets que l'on pourrait en attendre.
Qu'est-ce que le Big Data ? Le Big Data n'est pas une technologie en soi. C'est plutôt un phénomène récent, résultant des masses de données brutes que génère notre société à travers ses réseaux, ses inter-connexions et ses échanges, toujours plus volumineuses, plus rapides et plus variées. Chaque jour, on produit dans le monde environ 2,5 milliards de milliards d'octets d'information numérique. Selon Stephen Gold, directeur Marketing de IBM Watson solutions (qui dirigeait auparavant le marketing de SPSS), 90% de l'ensemble des données disponibles aujourd'hui dans le monde ont été produites au cours des deux dernières années. Avant notre ère numérique la production et la conservation de données nouvelles était généralement intentionnelle, structurée, directement porteuse de sens et localisée de manière précise. Elle était le fait d'une minorité d'individus, d'entreprises ou d'organisations. L'avènement du web, l'interconnexion des bases de données et le cloud-computing ont tout changé. Aujourd'hui, chaque individu produit un volume important de données de manière volontaire ou à son insu. Ainsi, les blogs, forums, messageries, tweets, réseaux sociaux, sites de partage et autres plateformes collaboratives permettent à tout un chacun de s'exprimer facilement et de produire une masse d'informations hétérogènes sur tout et n'importe quoi. Ces données sont stockées sur des serveurs éparpillés dans le monde et dont la localisation importe peu. Parallèlement, nos comportements et actions sur le web génèrent automatiquement une masse importante de données personnelles. Nos historiques de recherche ou de navigation, les produits que nous consultons ou les articles que nous achetons sur le web laissent des traces. Nous géné40
Survey Magazine Avril 2013
rons également des données à travers nos appareils de plus en plus connectés (mobiles, tablettes, téléviseurs, voitures et même électroménager…) et des puces électroniques que nous utilisons tous les jours (carte bancaire, de transport, d'accès, d'abonnement, de fidélité…). Tous ces « capteurs » peuvent renseigner en permanence sur notre position, nos comportements, nos habitudes... C'est ce flot de données ou plus exactement son exploitation qui est à la base du concept de BigData, considéré aujourd'hui comme une opportunité unique pour les entreprises mais aussi pour tous types d'organisations administratives, scientifiques, culturelles... Certains n'hésitent pas à comparer le Big-Data au pétrole ou à une mine d'or. Ils doivent certainement penser à la fois aux richesses qu'il recèle et aux efforts nécessaires pour y accéder. En effet, l'une des problématiques pour une entreprise ou une organisation réside aujourd'hui dans sa capacité à organiser la capture de données nombreuses et non structurées puis leur stockage. Mais l'enjeu majeur est avant tout d'être capable d'analyser ces données et d'en tirer du sens pour améliorer in fine ses performances, son organisation ou ses connaissances.
Les 3 V du Big Data Pour bien délimiter le Big Data, le concept a été caractérisé par « Les 3 V » : Volume, Vitesse et Variété.
Volume
Lorsqu'on parle de volume pour le Big Data, on évoque souvent les 7 téraoctets (7.000 milliards d'octets) générés quotidiennement par Twitter ou les 10 téraoctets de contenus échangés tous les jours sur Facebook. On cite également YouTube qui prend en charge chaque minute l'équivalent de 48 heures de vidéos. De même Google, Amazon et les autres grands acteurs de l'économie numérique sont par nature des gestionnaires de flux de données et manipulent donc des volumes impressionnants. Ces entreprises stockent ces données sur des milliers de serveurs alignés dans de nombreux Data-Centers sur des dizaines de milliers de mètres carrés. Pour avoir une idée de ces infrastructures, vous pouvez faire
AUJOURD'HUI, CHACUN DE NOUS PRODUIT UN VOLUME IMPORTANT DE DONNÉES, DE MANIÈRE VOLONTAIRE OU À SON INSU une visite virtuelle des sites de Google à l'adresse suivante : http://www.google.com/about/data centers/. Ce volume de données est en augmentation ultra-rapide depuis les début du Web. Eric Schmidt, Président exécutif de Google affirmait déjà en 2010 qu'il se créait tous les 2 jours autant de données qu'entre le début de l'humanité et l'année 2003. Ce rythme s'est considérablement accéléré depuis. C'est au début des années 2000 que les grands intervenants du Web ont ressenti, bien avant les autres secteurs d'activité, la nécessité de gérer une masse exponentielle d'informations. Voyant arriver plus de données que ce qu'elles pouvaient prendre en charge, des sociétés comme Google d'abord puis Yahoo ou Facebook ont cherché à mettre en place une nouvelle technologie de stockage réparti sur de multiples serveurs et d'accès rapide à cette information éparpillée. Cette technologie Open Source a été baptisée Hadoop et est utilisée aujourd'hui par la plupart des grands acteurs du web. Si les sociétés du web ont été les
DECRYPTAGE premières à ressentir le besoin de gérer de grands volumes de données, on peut dire aujourd'hui qu'elles n'ont plus le monopole dans ce domaine. En effet, toutes les grandes entreprises disposent à présent de quantités importantes d'informations qu'elles doivent prendre en charge et stocker. La grande distribution, les banques, les opérateurs de téléphonie mobile, les sociétés de vente à distance et les entreprises de transport notamment reçoivent à chaque instant d'importants flux de données. Dans tous les secteurs, des remontées d'information en provenance des points de vente, des centres de contact, des équipes commerciales ou des sites web peuvent également affluer. Les volumes dépendent alors de l'activité mais également des formats de données et du niveau de granularité choisi pour la prise en charge de l'information : captures vidéo, photos, emails, pages web, avis de consommateurs, tweets, documents scannés, puces RFID, comptages électroniques, éléments enregistrés par des capteurs, détails de consultation du site web, fichiers de logs... Par ailleurs, toutes les entreprises peuvent, disposer en plus de tous ces éléments, de contenus non structurés capturés par des outils de veille sur le web, mis en place pour suivre ce qui se dit sur elles, leurs concurrents ou leurs segments de marché. Avec la baisse du coût de stockage, la tendance aujourd'hui est de stocker tout ce qu'on peut stocker, souvent sans savoir comment l'information ainsi conservée pourra être exploitée.
Variété
Le corollaire du volume croissant
est une diversification importante des formats et des sources de données. On estime aujourd'hui que plus de 80% des données disponibles dans le monde sont de type non structuré contre moins de 20% de données structurées. Le volume de données non structurées augmente 15 fois plus vite que celui des données structurées, en provenance de sources de plus en plus nombreuses et variées. Alors que les entreprises traditionnelles étaient habituées dans le passé à prendre en charge des données structurées, à les stocker dans leurs bases de données relationnelles et à les interroger en SQL, la masse de données générées arrive donc aujourd'hui dans des formats très variés. Les données en provenance des médias sociaux, les éléments capturés automatiquement et les périphériques mobiles notamment font affluer des éléments qui n'entrent pas naturellement dans les architectures informatiques existantes. Cela exige une modification du mode d'approche et des changements d'infrastructures souvent difficiles à appréhender. Parallèlement la mise en place de ces nouvelles architectures nécessite des compétences nouvelles, actuellement peu courantes. Les décideurs et les DSI français commencent à en prendre conscience, même si leur vision du Big Data semble encore assez parcellaire. En effet, lorsqu'on les interroge sur le phénomène, ils lui associent spontanément le critère de Variété, plus automatiquement que les 2 autres caractéristiques (Vol u m e e t Vi t e s s e ) . C ' e s t c e qu'indique une étude menée récemment par l'institut « Markess International » sur les nouvelles
IL SE CRÉE TOUS LES DEUX JOURS DANS LE MONDE AUTANT DE DONNÉES QUE TOUT CE QUI A ÉTÉ CRÉÉ ENTRE LE DÉBUT DE L'HUMANITÉ ET L'ANNÉE 2003.
perspectives d'exploitation des données clients avec le Big Data, réalisée auprès de 110 décideurs d'entreprises et d'administrations de plus de 250 employés en France. Cette étude montre que les décideurs voient surtout dans le BigData les apports liés à l'analyse de nouvelles sources de données, dont les données sociales. Toutefois, le fait que les deux autres V (Volume et Vitesse) soient moins directement associés au Big Data révèle probablement un manque de compréhension du concept et de ses exigences en matière d'infrastructures
« Le miroir de votre marché » Pour vous aider à disposer d'informa ons fiables et précises, nous me ons à votre disposi on une large pale e d'études ad' hoc tant qualita ves que quan ta ves et réalisons tous vos terrains d'études. Toute la réac vité et l'implica on d'une équipe à taille humaine et d'un réseau na onal d'enquêteurs.
30 rue Buffon - 21000 Dijon Tél : 09 67 08 43 54 Contact : bruno.david@symetris.fr www.symetris.fr
DECRYPTAGE nouvelles de gestion et de stockage des données d'une part (Volume), et de gestion en temps réel ou en mode flux d'autre part (Vitesse). L'étude montre d'ailleurs qu'une faible proportion des personnes interrogées, y compris parmi les décideurs informatiques, connaît bien par exemple l'écosystème Hadoop (voir encadré), plateforme Open Source qui est aujourd'hui à la base des infrastructures Big Data de la plupart des entreprises avancées dans ce domaine (Facebook, Adobe, Amazon, Google, IBM, LinkedIn, Microsoft, etc.).
Vitesse
La vitesse correspond à la fréquence de remontée des informations. Les données non structurées et massives, affluent de plus en plus rapidement dans les systèmes d'information des entreprises. La vitesse de prise en compte des flux, de traitement des données multiples et d'exploitation instantanée des inputs correspond de ce fait à une exigence essentielle du Big Data. Le mode de traitement par lots qui est au cœur de nombreux systèmes CRM, ERP ou Décisionnels et qui produit des données « rafraîchies » à fréquence régulière, semble donc désormais inadapté à la prise en compte et à l'exploitation rapide du flot constant d'informations. La collecte et le partage des données en temps réel devient donc un prérequis absolu dans une approche Big Data. Il n'y a d'ailleurs qu'à voir comment Google Analytics est en mesure de vous indiquer en temps réel le nombre de personnes qui consultent votre site, leur provenance géographique, les pages en cours de consultation et bien d'autres paramètres instantanés
pour se rendre compte de l'ère de l'immédiateté dans laquelle nous sommes entrés, en imaginant toutes les exigences techniques et organisationnelles sous-jacentes. Quand on pense que ces informations sont gérées en temps réel pour des millions de sites à travers le monde, on ne peut qu'être impressionnés par la performance. Bien entendu, on a affaire ici à l'entreprise phare du web, dont le cœur de métier consiste justement à gérer des volumes gigantesques de données. Peu d'organisations dans le monde pourront prétendre approcher ses performances en matière de Big Data. Il n'en reste pas moins que les initiatives et innovations de Google peuvent souvent être des sources d'inspiration pour nous autres.
90% DE TOUTES LES DONNÉES DISPONIBLES AUJOURD'HUI DANS LE MONDE ONT ÉTÉ CRÉÉES CES 2 DERNIÈRES ANNÉES
La philosophie du Big Data La définition basée sur les 3V situe bien le concept de big data mais ne l'explicite pas entièrement. En effet, elle peut laisser penser que le big data est la même chose que ce
qu'on fait habituellement avec nos données mais en plus grand, plus varié et plus rapide. Il n'en est rien et le concept a sa logique propre qui est vraiment très différente de ce qu'on connaît déjà. Chris Anderson que nous avons déjà évoqué dans l'introduction de notre article nous l'explique en rappelant d'abord que la science traditionnelle dans son ensemble s'est toujours basée sur des modèles, des théories, des hypothèses ou des mécanismes qu'il s'agissait de comprendre et de généraliser pour nous permettre d'appréhender la complexité. Les statistiques à la base des études marketing en sont un exemple. Anderson rappelle d'ailleurs la phrase du célèbre statisticien Georges Box "Tous les modèles sont erronés, mais certains sont commodes", en expliquant que dans toutes les sciences, les modèles et les théories s'appliquent dans un cadre et peuvent ne pas fonctionner dans un autre. Il en est ainsi, par exemple, de la théorie de la mécanique newtonienne qui s'applique parfaitement aux mouvements des planètes mais est totalement inopé-
STAT’Mania Les méthodes d’analyse de données les plus avancées enfin à la portée de tous STAT'Mania est un logiciel de statistiques d'un type nouveau, aussi simple à comprendre et à utiliser qu'un logiciel bureautique. STAT'Mania permet à tout utilisateur d'appliquer facilement sur ses données les méthodes statistiques les plus avancées et d'obtenir les résultats sous forme de tableaux et de graphiques de qualité exceptionnelle. Les fonctions de STAT'Mania s'installent dans le module de traitement d'Ethnos et utilisent son interface puissante et conviviale. STAT'Mania intègre plusieurs méthodes d'analyses statistiques très innovantes comme la recherche des croisements les plus significatifs, le calcul automatique de la matrice importance-satisfaction ainsi que toutes les analyses multivariées et tests paramétriques et non paramétriques utiles au traitement d'enquêtes : AFC, ACP, ACM, Classifications, Typologies, Régressions, Anova, Ajustements, Comparaisons, Analyse lexicale, etc.
71 cours Albert Thomas - 69447 LYON Cedex 03 Tél : 04 78 54 64 00 - Fax : 04 72 33 19 91
www.soft-concept.com
DECRYPTAGE rante dans l'infiniment petit (qui relève de la mécanique quantique). L'approche big data, contrairement aux approches scientifiques habituelles, adopte une démarche empirique, qui ne repose plus du tout sur la compréhension des mécanismes sousjacents mais uniquement sur la constatation de faits. Anderson prend l'exemple du système de traduction de Google qui traduit n'importe quelle langue en n'importe quelle autre (65 langues supportées !) sans avoir la moindre idée des structures grammaticales de chacune de ces langues. La traduction fonctionne sur la base d'un système baptisé "statistical machine translation" qui analyse des millions de documents déjà traduits par des humains (livres, documents de l'ONU, sites web...) et en extrait des corrélations qui permettent de produire une traduction généralement correcte même si elle n'est pas toujours parfaite. Pour en savoir plus sur ce mécanisme vous pouvez visionner une vidéo à l'adresse suivante : http://translate.google.com/about. Pour poursuivre le raisonnement, Anderson considère que ce dispositif illustre parfaitement la pensée "Big Data" qui se passe de modèles et de théories pour utiliser uniquement des éléments existants, dont le volume permet d'extraire, par le seul calcul statistique, des résultats satisfaisants. Et même si on trouve des corrélations entre des éléments qui semblent ne rien avoir à faire ensemble, le volume important de données utilisées pour arriver à ces corrélations laisse penser qu'on est en présence de phénomènes réels bien que non expliqués (Anderson cite la corrélation entre Pampers et le Super Bowl !). L'idée du Big Data est de renoncer à chercher une explication mais de permettre simplement de prendre en compte cette réalité pour l'exploiter concrètement.
Les apports du Big Data D'après une étude de McKinsey, un distributeur qui utilise le Big Data de manière optimale peut augmenter sa marge opérationnelle de plus de 60% ! Le même rapport indique par exemple que 30% des ventes d'Amazon sont dûs aux recommandations données aux internautes. D'autres peuvent faire de même dans la mesure où chaque entreprise ou organisation a une forte
Chris Anderson, rédacteur en chef de Wired et auteur d'un article fondateur sur le Big Data en 2008 probabilité de disposer aujourd'hui d'un gisement d'informations et d'indicateurs qui pourraient améliorer considérablement ses performances. Certaines de ces données n'existaient tout simplement pas dans le passé ou ne pouvaient pas concrètement être prises en compte et analysées. Les apports marketing, commerciaux et opérationnels d'une analyse des flux de données de type big data peuvent être précieux et divers. Une bonne capture, gestion, modélisation, analyse et exploitation des données issues de ces gisements de Big Data permettent de révéler des relations cachées, détecter des opportunités nouvelles, redéfinir certaines offres, induire des changements organisationnels, infléchir la communication… Bref, la bonne utilisation du Big Data renforce les performances et la compétitivité de l'entreprise en lui permettant de répondre plus vite et mieux aux besoins de ses clients. Elle permet notamment : de remplacer ou d'assister les décisions humaines par des algorithmes automatisés seuls capables de gérer le volume et la vitesse des données, d'assurer plus de clarté et de transparence dans les mécanismes de décisions, d'expérimenter et d'évaluer plus vite voire instantanément des alternatives marketing, d'apporter des capacités prédictives nouvelles, d'anticiper plus facilement les mouvements et les tendances, de réduire de manière substantielles des coûts d'acquisition et d'exploitation de l'information par rapport aux procédés classiques (dont la recherche marketing).
Comment mettre en place un projet Big Data ? Une démarche aussi prometteuse mérite qu'on s'y attelle rapidement.
LE BIG DATA N'EST PAS CE QU'ON FAIT HABITUELLEMENT AVEC NOS DONNÉES MAIS EN PLUS GRAND, PLUS VARIÉ ET PLUS RAPIDE. C'EST UN CONCEPT AVEC UNE TOUTE AUTRE LOGIQUE.
LE BIG DATA PEUT PERMETTRE DES RÉDUCTIONS SUBSTANTIELLES DES COÛTS D'ACQUISITION ET D'EXPLOITATION DE L'INFORMATION PAR RAPPORT AUX PROCÉDÉS CLASSIQUES, DONT LA RECHERCHE MARKETING.
Mais comment s'y prendre concrètement ? Lorsqu'une entreprise aborde pour la première fois ce domaine et cherche à exploiter des types de données qu'elle n'a pas l'habitude de prendre en charge et de traiter, de nombreuses questions se posent : Quelles sont les données pertinentes et signifiantes auxquelles on doit s'intéresser ? Quels indicateurs peut-on mettre en place ? Quels problèmes de qualité de données aurons-nous à régler ? Combien cela va nous coûter ? Combien de temps cela va nous prendre ? Avec l'expérience, la réponse à ces questions devient bien sûr plus facile. Mais comme le big data, par définition, nous soumet sans cesse de nouvelles variétés de données, toujours plus vite et avec des volumes croissants, on peut être confrontés en permanence à des inconnues dans notre équation et avoir sans cesse à résoudre des problèmes nouveaux. Le premier projet big data est généralement initié lorsque le management se rend compte que l'entreprise est en train de perdre des opportunités en négligeant les données à sa disposition. La démarche consiste naturellement à solliciter la DSI pour étudier le projet. Les équipes marketing et informatiques se lancent alors dans un examen exhaustif des données qu'il serait possible de récupérer et d'exploiter, en se basant parfois sur des objectifs précis. Mais le plus souvent, les velléités d'exploitation des données et les immenses promesses du big data incitent à regarder dans tous les sens de peur de se fermer des portes ou de manquer des aubaines dans ce domaine encore nouveau pour l'entreprise. A l'issue de cette phase d'étude préalable qui peut se révéler longue et complexe, l'informatique se lance généralement dans des développements pour répondre au cahier des charges établi, en capturant les données identifiées et en les organisant en vue de leur traitement. Fidèles à leurs approches et méthodes habituelles auxquelles ils ont été formés et qui constituent pour eux le standard à respecter, les informaticiens cherchent à intégrer ces données capturées dans des structures rigoureuses, qui permettront leur exploitation avec les outils de gestion de base de données
Survey Magazine Avril 2013
43
DECRYPTAGE usuels. Les indicateurs ainsi développés sont ensuite déployés en test puis en production et mis à la disposition des équipes marketing. Immanquablement, et après quelques semaines seulement, les utilisateurs confrontés à la difficultés de transformer le process en bénéfices réels, reviennent demander des adaptations ou parfois même des changements complets d'approche. Les itérations qui s'ensuivent peuvent durer longtemps et épuiser tous les intervenants sans forcément aboutir à un résultat concluant. C'est Bill Franks, spécialiste du Big Data et auteur de l'ouvrage de référence « Taming the Big Data Tidal Wave » (qui a déjà été traduit en Chinois, en Japonais et en Coréen mais pas en Français !) qui décortique ce schéma classique en précisant qu'il ne fonctionne pas dans l'univers du Big Data parce qu'il correspond davantage à des cas où tous les éléments sont connus, les risques identifiés et les étapes claires et établies. Dans l'univers du Big Data, la difficulté consiste à utiliser de nouvelles sources de données pour répondre à de nouvelles problématiques, et le tout d'une nouvelle façon. La bonne solution pour Bill Franks est de « démarrer petit » (start small). Il conseille notamment de définir, pour démarrer, des indicateurs relativement simples qui ne nécessiteraient ni beaucoup de données à collecter ni beaucoup de temps pour les obtenir. Ainsi, un site de vente en ligne peut commencer par identifier les produits consultés par chaque visiteur dans le but d'envoyer à ceux qui n'ont pas acheté des offres promotion-
nelles qui pourraient les motiver à passer à l'acte. Pour limiter le process et faciliter l'expérimentation, il est conseillé de ne pas s'intéresser à l'ensemble des données mais de limiter l'expérience à une partie bien délimitée. On peut par exemple prendre les connexions d'un mois donné et pour quelques produits seulement. Ce focus permet de ne pas s'encombrer avec des volumes de données importants et des informations inutiles. Il facilite la manipulation des fichiers de données par les opérationnels du marketing qui peuvent définir plus facilement des sous-ensembles et effectuer des actions de tests en mesurant les retours obtenus. Des petits projets intuitifs comme celui-ci permettent à l'entreprise de se familiariser avec les possibilités qui s'offrent à elles et de cerner les problèmes éventuels, les efforts financiers et techniques à faire et les retours possibles. On ne démarre donc pas en listant en amont tout le champ des possibles mais plutôt en entrant dans le big data pas à pas, à travers de petites initiatives que l'on pourra ensuite développer et étendre en connaissance de cause.
Et les études marketing dans tout ça ? D'après le rapport d'ESOMAR sur le marché des études, les activités de recherche marketing qui ne sont pas liées au fait de poser des questions à des personnes (i.e. qui ne relèvent pas de l'enquête par questionnaire, des focus groups ou assimilés...), représentaient déjà en 2010 plus de la moitié du chiffre d'affaires du secteur. Ces activités correspondent aux audits de points de vente, aux mesures d'audience,
QUI PAYERAIT DES MILLIERS D'EUROS POUR INTERROGER UN ÉCHANTILLON DE 500 OU 1000 PERSONNES ALORS QU'IL A ACCÈS INSTANTANÈMENT À DES DONNÉES SUR DES CENTAINES DE MILLIERS DE CLIENTS ?
Qu'est-ce que Hadoop ? Au début des années 2000, Google a été confronté à une difficulté liée au volume croissant de données à gérer. Comme il n'était plus envisageable de faire tout tenir dans une base de données unique de plus en plus grande que l'on interrogerait à chaque requête, l'équipe Google Apps Team a développé l'algorithme Map Reduce pour découper les calculs à faire en sous-partie et les distribuer sur plusieurs machines. Les différents résultats étaient ensuite regroupés pour fournir un résultat global unique. C'est cet algorithme qui a servi de base au développement du système Hadoop qui a pour objectif de permettre à des applications nouvelles d'utiliser l'algorithme Map Reduce. L’enjeu est de taille puisqu’il consiste à permettre de mettre en place dans les entreprises des solutions alternatives aux bases de données relationnelles et d’y stocker un volume croissant de données variées. Côté directions métiers, les responsables pourraient interroger désormais l’ensemble des données disponibles plutôt que des échantillons, en mixant les données structurées venant des systèmes de gestion de l’entreprise avec des données externes non structurées issues des blogs, forums et réseaux sociaux. Tous les grands fournisseurs traditionnels de bases de données se sont déjà positionnés. C’est le cas notamment d’Oracle, d’IBM et de Microsoft qui proposent des solutions basées sur Hadoop. En revanche, les DSI sont pour l’instant un peu troublés par cette nouvelle approche qui remet complétement en cause les connaissances techniques de leurs équipes et les manières traditionnelles de gérer des données. L’attentisme est de mise. Pour combien de temps ?
44
Survey Magazine Avril 2013
à l'analyse de tickets de caisse, au web analytics... Il s'agit déjà là d'activités qui s'apparentent au Big Data et qui en constituent peut-être un prélude dans l'activité des instituts d'études. Comme l'indique Ray Pointer, Directeur de « Vision Critical University » et conférencier régulier à l'Esomar, « Deux visions du big data sont en train d'émerger du point de vue de la recherche marketing, même s'il y a un recouvrement important entre ces deux visions. » Pour Pointer, on peut distinguer un premier modèle orienté sur la marque (brandcentric view) et où l'on s'intéresse principalement à toutes les données détenues par la marque en interne : données issues du CRM, des cartes de fidélité, des études de marché, des remontées en provenance des réseaux sociaux... Dans le second modèle, des entreprises comme celles qui gèrent des panels peuvent accéder à des données multiples sur les personnes et les utiliser pour plusieurs marques et clients. Les deux visions laissent peu de place aux études basées sur un questionnement de répondants, qu'il s'agisse de démarches quantitatives ou qualitatives. On peut donc s'attendre à ce que ces techniques reculent dans les prochaines années. Le risque est même que les entreprises considèrent à terme, à partir d'un certain volume de données, que l'interrogation des clients ne sert plus à rien. En effet, qui payerait des milliers d'euros pour poser quelques questions à un échantillon de 500 ou 1000 personnes alors qu'il dispose de données instantanées sur des centaines de milliers de clients ? Ce faisant, les entreprises adhéreraient rapidement au concept de Google sur l'inanité du sens des choses (le pourquoi obtenu par le questionnement) au profit d'un suivi instantané de leur déroulement (le quoi issu de l'observation des événements). Ici, l'enjeu pour les instituts d'études serait de prouver que l'un peut éclairer l'autre et que l'analyse des objectifs et des motivations des consommateurs peut apporter une vraie valeur ajoutée à la compréhension des évolutions de leurs comportements d'achat. En tout cas, la formule "Big Data : Too Big to ignore" qui a servi de titre à un ouvrage sur le Big Data et qui est souvent utilisée dans la
presse américaine, devrait inspirer les instituts et les pousser à s'intéresser rapidement au phénomène. La connaissance des méthodes, technologies et apports peuvent leur donner des idées pour mettre en place de nouveaux produits et de nouvelles plate-formes qui restent à inventer. Les entreprises manquent aujourd'hui de spécialistes dans l'exploitation des données du Big Data. Dans les pays les plus avancés sur le traitement des données (Etats-Unis notamment), on recherche de toutes part des Data-Analysts et Data-Scientists. Certains suggèrent de confier le Big Data en interne à un CAO (Chief Analytics Officer) rattaché directement à la Direction Générale et capable d'appréhender la collecte et l'analyse de données à la fois du point de vue technique (en collaboration avec la direction informatique) et du point de vue marketing (en collaboration avec la direction marketing). Dans les organisation de ce type, cet interlocuteur aura besoin de ressources externes et pourra faire appel à des instituts qui lui offriraient une expertise dans la collecte et l'analyse de données. Si l'organisation au contraire n'intègre pas directement des spécialistes du Big Data, les instituts compétents peuvent se positionner comme des spécialistes privilégiés du domaine et offrir leur expertise à la fois aux directions informatiques et aux directions marketing. Les instituts d'études sont bien placés pour remplir ce rôle. En effet, on retrouve au coeur du Big Data les problématiques de l'optimisation du recueil de données, du traitement des informations non structurées (comme dans le qualitatif), d'analyse statistique de données et de mise en place de tableaux de bords et de reportings. Tout cela fait déjà partie des domaines d'expertise des instituts même si le domaine du Big Data nécessite en plus une expertise technique et informatique à acquérir en supplément. Par ailleurs, les entreprises qui souhaitent exploiter le Big Data vont avoir besoin d'interlocuteurs capables de les conseiller sur le plan technique mais qui comprennent également les enjeux mar-
Lectures conseillées
keting sous-jacents. Les SSII sont moins aptes à offrir un cadre à des profils de ce type alors que les instituts peuvent intégrer des équipes mixtes de spécialistes du Big Data au niveau technique et de directeurs d'études experts sur le plan de la compréhension du business du client. On voit donc que l'enjeu pour les instituts consiste tout d'abord à s'intéresser au phénomène Big Data et, très rapidement, à acquérir de l'expertise dans ce domaine pour évoluer avec les besoins du marché (et ne pas être les futurs Kodaks de l'ère numérique). L'un des points clés sera certainement de rechercher d'ores et déjà à intégrer des profils plus techniques capables d'appréhender les enjeux technologiques mieux que ne le ferait le chargé d'études moyen. Un autre point clé consiste à s'entourer de partenaires technologiques capables de les assister dans les projets de type Big Data en fournissant les conseils et/ou les outils adaptés. On peut d'ailleurs se réjouir de l'annonce récente de Fleur Pellerin, ministre déléguée en charge de l’Economie numérique de favoriser le développement d'une véritable filière Big Data en France afin que le pays « joue un rôle moteur sur ce nouveau marché ». Cela devrait déboucher obligatoirement sur la mise en place de filières d'enseignement adaptées capables de fournir au marché des profils adhoc. Le Big Data peut donc être vu par les instituts d'études comme une opportunité plutôt que comme une menace. C'est le moment de se positionner, surtout sur le marché français où les dernières études montrent que le phénomène est encore considéré avec une certaine distance par les décideurs (une étude IDC récente indique que 70% des 160 entreprises interrogées n'ont ni initiatives ni réflexion sur le sujet). Alors vite, fonçons avec une démarche pro-active pour profiter du changement de paradigme plutôt que de le subir.
Ouvrages disponibles sur :
www.surveymag.eu
Retrouvez Survey Magazine sur votre Mobile
Téléchargez l ’appli mobile ici
PRATIQUE
10 trucs vraiment infaillible Par Laurent Conroux lconroux@ethnosoft.com
pour rater
Occupez-vous du contenu, pas de la durée 10, 15, 20, 25 minutes ! Combien de fois n'avons-nous pas été excédés d'avoir à répondre à des questionnaires trop longs ? Combien de fois n'avons-nous pas, du coup, interrompu le questionnaire ou coché n'importe quoi juste pour arriver au bout ? En la matière, beaucoup de concepteurs d'enquêtes semblent tomber dans l'autisme en ne s'intéressant qu'à eux et à leur questionnaire plutôt qu'aux personnes en face qui doivent répondre. Malheureusement, beaucoup aujourd'hui ne peuvent même plus être raisonnés, tant ils sont pétris de la conviction qu'un bon questionnaire doit obligatoirement être long et détaillé. Il faut ce qu'il faut, et la durée n'est pas leur problème. Eh bien non. Pour réussir une enquête il faut tenir compte des répondants qui ne sont pas juste des machines à donner des réponses. La durée optimale d'un questionnaire est ... la plus courte possible (pour nous, 10 minutes maximum). Alors mettons-nous à la place des répondants et essayons de ne pas leur faire subir ce que nous n'accepterions pas pour nous-mêmes.
Bloquez vos questions en obligatoires Si votre enquête est bien faite, toutes les questions que vous posez doivent avoir une utilité pour vous. Dans les enquêtes autorenseignées (web et mobiles notamment), vous pouvez être tentés d'obliger les répondants à donner une réponse à chaque question avant d'avancer aux suivantes. Il faut accepter que même si une question a beaucoup d'importance pour vous, elle peut ne rien inspirer au répondant. Lorsque vous obligez celui-ci à cocher une case sans qu'il n'y soit disposé, vous dévalorisez votre questionnaire puisque vous donnez l'impression à l'interviewé de répondre n'importe comment. Cela constitue souvent un motif d'abandon en cours. Il convient donc de réserver le statut obligatoire à quelques questions vraiment essentielles au déroulement de l'enquête (questions de qualification, d'orientation...).
46
Survey Magazine Avril 2013
Posez toutes les questions, au cas où Lors de la construction d'un questionnaire, la tentation est grande d'y mettre au fur et à mesure toutes les questions qui viennent à l'esprit et qui sont en relation plus ou moins étroite avec les objectifs de l'enquête. L'idée est de ne rien oublier, de ne pas "louper" des choses intéressantes, parfois de profiter de l'occasion pour faire remonter des informations complémentaires. Or un bon questionnaire doit être court et bien concentré sur les seuls objectifs assignés à l'enquête. Il n'en sera que plus lisible, plus facile à administrer et plus exploitable qu'un fourre-tout ultra-complet et ultra-inutile.
Utilisez un langage technique Généralement, le donneur d'ordre et le concepteur d'une enquête sont des professionnels de leurs domaines. Leur technicité peut les amener à utiliser des termes spécifiques ou des abréviations pour désigner les produits et les concepts dans les questions. Or c'est là le meilleur moyen de ne pas se faire comprendre et d'avoir des réponses erronées. La règle de base pour un bon questionnaire est d'éviter tout jargon et de se forcer à utiliser des mots simples et clairs, qui soient accessibles à tous. Ecrivez ce que vos lecteurs comprendraient facilement et sans avoir à relire la question. Le mieux serait d'utiliser le langage courant de tous les jours.
Tranchez sans trancher On propose souvent des tranches pour les questions numériques. L'intérêt est de faciliter la réponse, surtout lorsqu'on s'intéresse à des variables sensibles comme le revenu ou l'âge. L'erreur est de ne pas bien découper ses tranches en faisant suivre par exemple 18-25 ans de 25-35 ans puis 35-45 ans... Une personne de 25 ou de 35 ans ne saura donc pas où se mettre.
PRATIQUE
es
On reçoit tous tellement de mauvais questionnaires auxquels on n'a pas envie de répondre ou qu'on ferme au bout de quelques écrans que nous nous sommes demandés s'il était vraiment utile de donner ces 10 trucs, tellement ils nous semblaient connus et largement utilisés. Bien sûr, toute ressemblance avec des questionnaires existants ou ayant existé ne peut être que fortuite.
vos questionnaires Multipliez les questions ouvertes Sous prétexte de laisser le répondant s'exprimer et de ne pas passer à côté d'éléments essentiels, beaucoup de questionnaires regorgent de questions ouvertes (surtout les questionnaires RH et ceux réalisés par des débutants). Or si les questions ouvertes sont essentielles dans les études qualitatives, elles n'ont quasiment pas leur place dans les enquêtes quantitatives. Au contraire, elles rallongent l'enquête, augmentent les abandons, sont rarement renseignées et quand elles le sont, avec des contenus peu utilisables. Une question ouverte en fin de questionnaire ou de partie peut être intégrée. Plus c'est trop.
Surfez sur LE vague
Classez, c'est classe On peut avoir besoin de faire classer des produits, des préférences... La règle dans ce cas est d'éviter de proposer trop de réponses à classer. Généralement, nous avons du mal à classer plus de 3 éléments sans nous poser de questions. Si je vous demande par exemple de me classer 5 couleurs (ex : orange, marron, violet, rouge, rose) la réponse ne va pas de soi et vous risquez de ne pas donner un classement identique si on vous réinterroge une deuxième fois. Il convient donc de limiter les classements à 3, 4 ou 5 items au maximum (et pas 10 ou 12 comme on voit parfois).
Variez les échelles Les échelles d'évaluation sont très utiles pour permettre aux répondants de se positionner. Utilisées en tableaux, elles permettent de raccourcir le questionnaire et d'accélérer l'entrée des réponses. Mais pour être efficaces, les échelles doivent rester homogènes. Il est conseillé donc, pour ne pas perturber le répondant et lui permettre de bien "caler" ses réponses, de ne pas varier les échelles dans un même questionnaire (ex : une échelle en 4 de Tout à fait d'accord à Pas du tout d'accord, puis une échelle avec des notes de 0 à 10 puis...).
Beaucoup de questionnaires comportent des adverbes comme "souvent", "parfois"... De tels adverbes ne sont pas compris de la même manière par tous les répondants. Ainsi, une personne qui mange dans un fast-food 4 jours sur 5 peut indiquer qu'elle y mange "Souvent". Mais une personne qui fréquente ce type de restaurant 1 fois par semaine peut aussi dire qu'elle y va souvent. Une troisième qui n'avait jamais l'habitude d'y aller et qui y va à présent 1 à 2 fois par mois peut aussi donner la même réponse. Il convient donc pour avoir des réponses précises d'être précis dans la formulation des fréquences (ex : Tous les jours ou presque, 1 à 2 fois par semaine....) et plus généralement de toutes les échelles proposées.
Soignez le fond pas la forme Avez-vous déjà répondu à un questionnaire en provenance d'un grand institut et qui vous a semblé agréable et bien présenté ? Moi non. C'est à se demander si, plus on fait d'enquêtes, moins on les présente bien. Si vous pensez comme nous (Victor et moi) que "La forme, c'est le fond qui remonte à la surface", soignez vos écrans et donnez au répondant l'envie de répondre. C'est facile de le faire avec des logiciels adaptés, à condition juste de s'en soucier.
Survey Magazine Avril 2013
47
PRATIQUE
par Gérard DANAGUEZIAN gdanaguezian@ethnosoft.com
Professionnels des études
Améliorez votre visibilité sur le web
A
ujourd'hui, si vous affirmez que votre institut est le meilleur, le plus innovant et le plus compétent, on hésitera vraiment à vous croire de prime abord. Mais si c'est Google qui le dit en vous plaçant en tête de ses propositions, personne n'aura l'idée de discuter de la justesse de ce choix et on considérera tout au moins que vous devez compter dans votre profession. Dans le monde actuel, la visibilité sur le marché passe obligatoirement par Google, Bing ou Yahoo. Les entreprises qui n'arrivent pas à figurer sur la ou les premières pages n'existent tout simplement pas pour les personnes qui ne les connaissent pas. En revanche, celles qui ressortent en première page et plus encore dans les 3 premiers résultats proposés, disposent d'une formidable valeur ajoutée et drainent de nouveaux contacts que les autres ne verront jamais. On estime à ce titre que les 3 premiers résultats représentent 80% des liens cliqués.
L'importance du SEO Devant l'importance des enjeux, cette réalité a donné naissance à une nouvelle discipline, l'optimisation des résultats de moteurs de recherche que l'on désigne par l'acronyme anglo-saxon SEO (pour Search Engine Optimization). Le but du SEO est de comprendre les critères qui guident le choix des moteurs de recherche pour maximiser les chances d'un site donné de figurer en bonne place. Ces critères sont généralement logiques et objectifs, et permettent de mettre en avant les bons sites web et d'écarter les mauvais. En s ’y intéressant, les entreprises identifient non seulement les points faibles de leurs sites mais comprennent également la réalité du business moderne et font évoluer de pair leurs sites et leurs stratégies marketing. Google, maître du monde Internet, utilise une panoplie de plus de 300 indicateurs qui lui permettent de scorer automatiquement et régulièrement tous les sites dont il a connaissance dans l'objectif de proposer aux internautes les meilleurs résultats possibles. Ces indicateurs ne sont pas clairement communiqués et sont constamment affinés par les équipes de Matt Cutts, une célébrité dans le monde du web, patron du Webspam chez Google. L'objectif perma48
Survey Magazine Avril 2013
nent ou plus exactement l'idée fixe de Cutts et de son équipe est de concevoir des méthodes qui permettent d'évaluer objectivement l'intérêt de votre site. Les algorithmes mis en place cherchent à détecter tous les indices qui font que vous méritez de bien figurer dans les résultats de Google et, à l'inverse, à débusquer ceux qui font penser que vous ne comptez pas ou que vous trichez pour figurer en bonne place. Dans ce dernier cas, votre site est pénalisé et la sanction peut aller jusqu'à sa suppression des résultats de Google, ce qui revient, dans certains secteurs, à signer l'arrêt de mort de l'entreprise concernée. Dans le secteur des études marketing, le risque n'est pour l'instant pas à ce niveau. C'est peut-être pour cela que certains instituts (dont quelques uns parmi les plus importants) se contentent d'afficher des sites web vieillots, d'une qualité graphique pitoyable et d'une pauvreté de contenu affligeante (avec les sempiternelles questions existentielles « Qui sommesnous ? », « Que faisons-nous ? » et « Où sommes-nous ? »). Ne parlons même pas des technologies de développement obsolètes utilisées et des incompatibilités pour les affichages sur les nouveaux écrans des smartphones et des tablettes. Relevons seulement qu'un grand nombre des sites que nous avons consultés n'ont simplement pas été actualisés depuis des mois, voire des années. Et même sur les sites les plus importants qui affichent surtout les résultats de leurs dernières études, les actualités sur l'institut et les communiqués de presse ne sont pas de grande fraîcheur (mais que font donc les responsables de com et les contacts presse que l'on voit en photo sur le site ?).
Matt Cutts, patron du Webspam chez Google
Dans un secteur où nous sommes censés aider les entreprises à optimiser leurs stratégies marketing, il est temps de faire un peu attention à l'image qui est donnée et de faire quelques efforts pour se tenir à niveau sur le vecteur de communication principal du monde moderne : le web.
Par où commencer ? La première chose à faire est un état des lieux. L'idée est de savoir où en est votre site par rapport à vos principaux concurrents. Pour cela, il faut vous mettre à la place d'un client potentiel qui cherche un fournisseur dans votre métier et imaginer les mots-clés qu'il pourrait entrer dans le moteur de recherche. Prévoyez des motsclés et expressions génériques du métier et d'autres plus liés à vos spécialités, en pensant à différentes cibles de clients qui connaissent plus ou moins bien les termes techniques et jargons de votre profession. En essayant ces mots-clés sur Google puis Bing et Yahoo, vous avez déjà une première idée sur votre positionnement et sur celui de vos principaux concurrents. Etant donné que la première page ne propose que 10 sites et que les meilleures positions vont souvent à des sites institutionnels ou d'information (type wikipédia), votre probabilité d'y figurer et plus encore d'arriver dans les 3 premiers est faible (à moins que vous ayez déjà fait les efforts nécessaires comme ceux qu'on évoquera plus loin). Faites attention à un paramètre : ce que vous voyez comme résultat n'est pas forcément ce que verrons d'autres internautes situés en d'autres lieux. En effet, les moteurs de recherche tiennent compte de certains éléments liés à l'utilisateur pour lui servir les résultats qui lui seront les plus utiles. Ainsi, ils peuvent tenir compte du lieu de la requête (ce qui améliore votre position puisque vous ne pouvez pas être plus proche), des paramètres de votre navigateur, de votre historique de recherche et clics précédents... Quoiqu'il en soit, si vous ne figurez pas en première page pour les mots-clés que vos prospects seraient le plus susceptibles d'entrer, il faut vous mettre en alerte et vous préparer à l'action. Mais avant d'entamer les travaux, il convient d'avoir quelques indicateurs plus précis. Pour cela, faisons tout d ’abord appel à Alexa.
PRATIQUE Alexa Non, Alexa n'est pas une amie de Matt. C'est un service gratuit à la base qui permet d'obtenir le classement exact en termes de fréquentation de votre site web, parmi tous les sites web du monde et parmi les sites consultés depuis la France. Un abonnement payant est proposé qui offre des prestations de SEO plus avancées. Alexa est accessible tout simplement à l'adresse http://www.alexa.com. Dans l'onglet affiché sur la page principale, il faut cliquer sur « Site Info » (eh oui, Alexa ne parle qu'anglais). Vous pouvez ensuite entrer le nom de votre site et obtenir son classement (Alexa Traffic Rank). En cliquant sur « Get Details », vous pouvez consulter de nombreuses statistiques sur la fréquentation de votre site mais avoir également une idée de sa vitesse d ’affichage, ce qui compte beaucoup dans le confort de navigation. Vous pouvez faire de même pour les sites de vos principaux concurrents, ce qui vous permettra de vous positionner, au moins en termes de fréquentation. Mais comment procède Alexa ? Le site (qui est une filiale d'Amazon) propose une barre d'outils qui peut être installée gratuitement dans Internet Explorer et Firefox. Sous Chrome, il s'agit d'une extension qui peut être chargée par l ’intermédiaire du menu Paramètres. Une fois installée, cette barre d'outils ou cette extension indique la position de chaque site visité mais envoie également à Alexa l'information sur la fréquentation des sites. Attention, sous Internet Explorer et Firefox, les transactions gérées par la barre d'outil provoquent des ralentissements. Ce n'est pas le cas avec l'extension dans Chrome. Maintenant que vous avez évalué votre position (en espérant que votre site se classe à moins de la millionième position dans le monde et de 50.000 en France),
nous allons procéder à un diagnostic du contenu du site. Pour cela, faisons appel à Woorank (non pas who, woo !)
Woorank Woorank est un site très utile mais qui présente le gros inconvénient d'être payant (de 49 à 149$ par mois quand même !). Mais il permet toutefois de réaliser chaque semaine un audit gratuit du site de votre choix. Connectez-vous donc sur http://www.woorank.com et lancez un audit sur votre site (ne vous trompez pas d'adresse pour ne pas avoir à attendre la semaine prochaine). Woorank vous produit alors un rapport très complet sur votre site, assorti d'un score sur 100. Si vous atteignez 50, vous pouvez considérer que votre site est de bon niveau même s'il faut continuer à l'optimiser. A défaut, il convient de bien regarder les différents points mentionnés par Woorank et de relever les manches d'urgence (certains éléments sont évoqués plus loin dans cet article). Beaucoup d'éléments signalés par Woorank sont des points de détail très faciles à régler comme notamment les conseils des sections Référencement et Contenu SEO. D'autres, à l'inverse, sont quasiment impossibles à régler rapidement et nécessitent généralement de gros investissements en efforts et en temps : Optimisation Smartphone, Impact Réseaux Sociaux... Justement, puisqu'on parle de réseaux sociaux, signalons que cet aspect devient primordial aujourd'hui pour être bien référencé. Pour savoir où vous en êtes sur ce point, allons sur Klout (à ne pas confondre avec le Cloud).
Klout Klout est accessible à l'adresse suivante : http://www.klout.com. Si votre entreprise n'est ni sur Facebook ni sur Twitter, vous
n'aurez pas l'usage de Klout. En effet, ce service gratuit a pour but de mesurer votre popularité, votre e-réputation sur les réseaux sociaux. Elle note votre empreinte numérique sur une base de 100. Klout développe un algorithme qui se focalise plus sur les contenus partagés qui provoquent des réactions qu'au nombre de contacts dont vous disposez. C'est même préjudiciable d'avoir trop de contacts en inadéquation avec les articles et informations partagées. A noter qu'en France, nous possédons un indice moyen Klout plus élevé que le reste du monde. Maintenant que vous avez fait le point sur la fréquentation de votre site, que vous avez audité son contenu et évalué votre ereputation, nous allons nous intéresser aux techniques d'optimisation. Mais avant, évoquons un outil essentiel pour la gestion de votre référencement. Si vous ne le connaissez pas, il y a du souci à se faire puisqu'il s'agit de Google Analytics, l'outil obligatoire associé à tout site web.
Google Analytics C'est l'outil le plus important, votre partenaire SEO obligatoire. Un site qui ne dispose pas d'un code Google Analytics est le plus souvent un site bricolé et sans intérêt. Google Analytics vous offre en effet un tableau de bord permanent du trafic que génère votre site, avec une richesse de détail impressionnante. Il est même capable maintenant de vous afficher en temps réel les connexions en cours sur votre site et les pages en train d'être consultées... Pour l'instant, ce service est totalement gratuit en version de base. Google propose, depuis peu, une version Premium payante et réservée pour l'instant aux entreprises d'Amérique du Nord. Cette version est facturée 150.000 $ par an (oui, vous avez bien lu !). Les différences entre les versions gratuite et premium sont mineures voire insignifiantes pour la majorité des sites (ex : service d'assistance télé-
Avec
CODEX Logiciel de recodification universelle... Transformez facilement vos informations qualitatives en données structurées, exploitables dans le module d'analyse et de traitement d'Ethnos.
phonique 24h/24, suppression de certaines limites que le commun des sites n'atteint jamais...). Autant dire que le fait de ne pas activer gratuitement ce service sur son site serait tout simplement ballot. L'activation de Google Analytics se fait en se connectant à l'adresse http://www.google.com/analytics. Il faut d'abord créer un compte puis déclarer votre site. Google Analytics vous communique alors quelques lignes de programme contenant notamment un code de suivi spécifique qui vous est attribué. Il vous appartient d'insérer ce bout de programme dans chacune des pages de votre site ce qui permettra à Google, à chaque fois qu'un internaute accédera une page contenant ce code, d'enregistrer une foultitude d'informations sur la navigation et de les mettre à votre disposition. Le tableau de bord Google Analytics vous fournit ainsi le nombre de visiteurs qui ont accédé votre site jour par jour (voire heure par heure si vous le demandez). Les visiteurs sont décomposés en Nouveaux et Connus, répartis par origine géographique (pays, ville...), langue, navigateur utilisé, système d'exploitation. Le tableau de bord peut aussi vous indiquer les pages vues, les temps passés, etc. Bref, il s'agit là d'un outil de suivi comme on en rencontre peu, qui est capable de tout restituer afin de permettre d'agir pour améliorer les performances de son site. Puisqu'on y est, évoquons maintenant quelques pistes pour améliorer un site et lui permettre ainsi d'être mieux référencé et donc plus visible.
Comment optimiser votre site et son référencement ?
CODEX prend en charge automatiquement vos images (JPG, GIF, BMP, PNG…) fichiers audio (MP3, WMA, WAV…) fichiers vidéo messages emails fichiers texte et bureautiques fichiers Ethnos (.G .S...)
www.soft-concept.com
Comme vous le voyez, nous avons titré à la fois sur l'amélioration du site et de son référencement. En effet, l'un ne va pas sans l'autre et ceux qui pensent qu'il suffit de travailler les techniques de référencement pour se placer aux premières positions de Google se trompent. Au contraire, une optimisation forcenée peut se traduire par la dégradation de votre position alors qu'un site de plus en plus utile et intéressant allié à un bon référencement sont la clé du succès. Vous disposez pour cela de plusieurs outils et techniques.
Outils Google pour webmasters En plus d'Analytics, Google offre un autre service gratuit pour les webmasters qui permet de voir comment le moteur de recherche analyse votre site. Le système vous permet également d'agir directement pour aider Google à comprendre et référencer votre site du mieux possible. Ces outils sont accessibles à l'adresse http://www.google.com/webmasters. Comme pour Analytics, il faut d'abord valider votre site. Une fois que c'est fait, vous avez accès à plusieurs rubriques contenant de précieuses informations : le Tableau de bord vous donne des informations synthétiques sur les erreurs rencontrées par le robot de Google lors de l'exploration de vos pages, le volume des requêtes ayant renvoyé votre site (avec le nombre de clics résultants) ainsi que le nombre de pages de votre site indexées par Google suite à la lecture de votre Sitemap (nous y reviendrons), la zone Messages vous liste des évènements constatés par Google et sur lesquels vous aurez éventuellement à intervenir (ex : augmentation du nombre d'erreurs d'un certain type...), la zone de Configuration vous permet d'indiquer les paramètres de votre site (ex : la manière d'afficher votre URL, votre zone géographique...), la rubrique Etat de santé donne de précieuses indications sur les erreurs d'explorations et la manière dont Google voit votre site. Elle indique également la présence éventuelle de logiciels malveillants sur le site, la partie Trafic détaille les requêtes de recherche qui ont abouti à l'affichage de votre site ainsi que les liens qui pointent vers vos adresses, la zone d'Optimisation est essentielle puisqu'elle vous permet notamment d'envoyer à Google le plan de votre site appelé Sitemap, qui référence toutes les pages internes du site pour permettre au moteur de les indexer et donc de les proposer dans ses résultats, la partie Labos contient de nouveaux outils en test chez Google, dont la mesure des performances de votre site avec PageSpeed Insights (qui score le site et donne des conseils pour augmenter ses performances). Ces outils Google pour webmasters sont donc essentiels pour gérer votre site. Ils permettent de détecter notamment les erreurs qui pourraient nuire à son référencement. Vous pouvez donc réagir et améliorer ce qui est signalé. Voyons maintenant ce que vous pouvez faire de manière pro-active pour que votre site soit vraiment meilleur.
PRATIQUE Conseils pour un site meilleur Les démarches pour aboutir à un site de qualité et qui bénéficiera naturellement d'un meilleur référencement sont variées. Nous vous donnons ci-dessous les principales, sans trop entrer dans la technique de réalisation des pages web et sachant que nous reviendrons régulièrement sur le site de Survey-Magazine sur ce sujet pour apporter des éclairages nouveaux : Notre tout premier conseil est de produire des contenus de qualité, qui donnent vraiment des informations utiles aux visiteurs. Oubliez les plans gnangnan qui peuplent les sites médiocres et intéressez-vous à ce qui va intéresser vos visiteurs. Ainsi, un institut qui ne parle que de lui en sortant les classiques « Depuis 20 ans, notre institut... » et « Une équipe de professionnels... » ou « Un terrain exigeant... » et tous les poncifs du genre n'intéresse personne. A l'inverse, un institut qui explique son savoir faire de manière vivante et dynamique, qui présente ses méthodologies avec du détail et de la pédagogie, qui donne des conseils et commente son actualité et celle de ses clients, peut intéresser et attirer de nouveaux visiteurs. N'oubliez pas que plus vous avez des visiteurs plus vous en aurez car Google tiendra compte de votre fréquentation pour améliorer votre position dans les résultats de recherche. C'est donc un cercle vertueux dans lequel il faut absolument rentrer. Même si la quantité n'est pas le critère primordial pour Google, un site qui compte 500 pages semble logiquement donner plus d'informations qu'un site qui n'en compte que 10. Pour arriver à avoir beaucoup de pages, n'ayez pas le réflexe de faire des découpages artifi-
ciels mais travaillez plutôt de nouveaux contenus. Attention : ne copiez pas. C'est incroyable de voir comment Google est en mesure de détecter les « contenus dupliqués ». Ne reprenez donc pas des articles ou des contenus d'autres sites pour enrichir le vôtre. Vous seriez pénalisés automatiquement. Même les contenus dupliqués sur un même site sont déconseillés. Faites des mises à jour fréquentes. Vous n'avez plus rien à dire ? C'est bien dommage car vous risquez bientôt de ne plus rien avoir à faire. Alors obligezvous à améliorer en permanence votre site, à ajouter des contenus récents, à rédiger et publier un communiqué de presse à chaque nouvel évènement... Ajoutez à votre site un blog. Cela est valorisé par les moteurs de recherche. Un blog oblige à une certaine régularité dans les publications. Il vous permet d'aborder des sujets complémentaires de manière moins formelle. Il vous permet de réagir à l'actualité et de faire réagir vos visiteurs. Alors à vos claviers. Obtenez un maximum de liens vers votre site. Des liens de sites importants vers le vôtre sont un signe de qualité pour Google. Participez à des colloques, écrivez des articles dans des
magazines (SurveyMag notamment !). Plus on parle de vous, plus on pointe vers votre site et plus celui-ci est valorisé. Evitez en revanche les artifices comme les échanges de liens qui sont également sanctionnés. A l'inverse, les liens sortants doivent être limités au strict minimum puisqu'ils diminuent votre score. Réalisez une version de votre site pour mobile et smartphone. Cela est valorisé par les moteurs de recherche et vous permet d'avoir une audience élargie. Créez une page sur Facebook, des comptes LinkedIn, Viadeo et Twitter. Les réseaux sociaux prennent une importance croissante dans le référencement. Google valorise beaucoup les sociétés populaires au détriment des autres. C'est plus facile de l'être quand on s'appelle Coca Cola ou Nike mais il y a quand même des possibilités. Vous pouvez aussi faire de la pub avec Google Adwords et Bing Ads. Cela augmentera votre fréquentation et participera à votre renommée. Voilà déjà de quoi faire. Nous continuerons prochainement sur le sujet, sur le site de Survey-Magazine (surveymag.eu), avec des conseils plus techniques sur la structure optimale à donner à vos pages. Bon travail.
Lectures conseillées Ouvrages disponibles sur :
www.surveymag.eu
Esperformance révolutionne le monde de l'enquête satisfaction avec Evalaction, le questionnaire RH en 1 clic…
Avenue du Mont-Blanc, 33-1196 Gland – Suisse
Tél:+ 41 22 365 99 11
www.esperformance.ch
RESSOURCES
Sites & Blogs à part ! Le monde des études http://lemondedesetudes.fr Voilà un blog rafraîchissant avec une conception graphique moderne et dynamique. C'est l'oeuvre de Grégoire Hervé-Bazin, un passionné d'études qui oeuvre en free-lance comme consultant en études de marché après des expériences chez Publicis, Intermarché et Occurence. Le site regorge de tutoriels sympathiques sur des thèmes originaux comme le choix des couleurs dans les graphiques et les rapports ou, plus techniques, comme les méthodes de sondage ou les intervalles de confiance. Vraiment sympa et bien fait !
Le blog du Brand Content http://testconso.typepad.com/brandcontent/ En dehors de Survey-Magazine et de Soft Concept, connaissez-vous un autre acteur du monde des études qui rédige et diffuse des contenus de qualité, avec une réflexion approfondie sur les problématiques du métier ? C'est Daniel Bô bien sûr, PDG de QualiQuanti, qui collabore d'ailleurs très régulièrement à Survey-Magazine et qui s'est lancé dans un nouveau blog riche et varié, dans lequel il présente l'actualité et ses réflexions sur les contenus des marques. Vous pouvez aussi visiter depuis ce blog 3 autres sites associés : la veille, les acteurs et le grand prix du brand content. Merci Daniel.
Satisfaction, fidélité, relation et capital client http://blog.init-marketing.fr Quel vaste programme ! Et Christian Barbaray, PDG de l'institut INIT, s'en sort très bien avec pas mal de billets intéressants sur les taux de satisfaction, une série de trucs et astuces (Estimez votre taux d'infidélité clients), des conseils pratiques (La règle des 7R pour réussir vos enquêtes) et des focus particuliers sur la relation clients et la satisfaction dans plusieurs métiers dont la Banque, le monde de la Santé, l'Internet et les Experts Comptables. A suivre.
Ethnosphère http://www.soft-concept.com/blog Pour avoir de bon professionnels qui comprennent bien les techniques et le fonctionnement des études marketing, il faut de bons pédagogues. Soft Concept s'adresse dans un nouveau blog baptisé Ethnosphère, aux milliers d’étudiants qui utilisent le logiciel Ethnos au cours de leur scolarité (dans le secondaire et dans le supérieur). Le blog regorge de cours, exercices, exemples et conseils sur l'utilisation du logiciel Ethnos pour créer et analyser des enquêtes classiques et/ou pour déployer, gérer puis traiter des enquêtes sur le web.
Marketing Alternatif http://www.marketing-alternatif.com Blog de l'agence Tribecca, spécialiste du marketing communication, avec des clients comme Tropico, Microsoft, Domino's Pizza, Nike… Vous y trouverez des exemples concrets sur des travaux d'entreprises souvent célèbres. Surtout, ces exemples sont des idées originales d'une inventivité bluffante.
52
Survey Magazine Avril 2013
RESSOURCES
Market Research in the Mobile World http://www.mrmw.net La recherche marketing s'intéresse tellement aux technologies mobiles que plusieurs nouvelles manifestations ont vu le jour sur ce sujet spécifique. C'est le cas de la Mobile Research Conference et de la Market Research in the Mobile World, qui se tiennent régulièrement dans plusieurs parties du monde (Londres, Mineapolis, Kuala Lumpur...). Ce site permet de s'y inscrire (environ 1.000 $) mais également d'accéder librement à des dizaines de vidéos des conférences passées.
Neuroscience Marketing Blog http://www.neurosciencemarketing.com Ce blog est sûrement l'une des références dans le domaine du neuromarketing. Il permet de découvrir en profondeur ce que sont les neurosciences et quelles sont les nouvelles méthodes et expériences en neuromarketing. Roger Doodle est un consultant qui associe son expérience de plusieurs décennies dans le domaine du marketing traditionnel avec les nouvelles technologies d'aujourd'hui, notamment les réseaux sociaux et les neurosciences.
GreenBook http://www.greenbookblog.org Ce blog est une mine d'informations sur la recherche marketing. Il réunit de nombreux articles en accès libre sur les tendances du secteur, les dernières innovations, les meilleures pratiques, les techniques d'enquêtes, etc. Les contributeurs sont des professionnels reconnus du secteur des études. Le site propose également en accès libre le GRIT (GreenBook Research Industry Trends Report) qui présente les résultats d'une étude annuelle sur l'état du marché du Market Research et ses évolutions.
W5 Blog http://www.w5blog.com W5 est un cabinet de consulting américain en recherche marketing. Ce blog est donc entièrement en anglais mais vraiment très riche en informations. Vous y trouverez un paquet d'idées nouvelles pas encore arrivées sur le marché français. Humblement intitulé « A blog about the art and the science of marketing research », ce blog apporte également des liens intéressants. Humour, culture, actualité, économie... de la recherche marketing fraîche et décontractée.
Instituts d’études - Centres d’appels - SSII ... Envie de bureaux qui s’adaptent au jour le jour à votre activité ? A Lyon Oullins et Vienne, Centre d'affaires et de conférences jdscenter vous propose des espaces et des services pour implanter votre entreprise, développer votre business, former vos collaborateurs, communiquer... votre lieu de travail, d'animation et de rencontre.
04 37 56 11 88
Pour en savoir plus, visitez notre site www.jdscenter.com
RESSOURCES
es Ouvralges sur b disponvi eymag.eu r www.su
LIVRES À LA UNE Convaincre avec des graphiques efficaces Bernard Lebelle Editeur : Eyrolles Parution : 12 juillet 2012 260 pages ISBN-13: 978-2212553994 Représenter visuellement l'information est le moyen le plus sûr de transmettre un sujet complexe. Dans un monde où le temps d'attention est limité, il est nécessaire de développer des graphiques clairs et efficaces capables de porter votre message. Or, le trio "courbe / camembert / histogrammes" n'est pas la seule manière de faire comprendre votre analyse et vos conclusions ! Pour sortir des sentiers battus et émerger du lot, cet ouvrage vous propose d'acquérir une nouvelle compétence, celle de la datavisualisation : vous serez ainsi en mesure de concevoir seul la représentation visuelle de vos données, celle qui permettra à votre auditoire de rentrer rapidement dans le vif du sujet. Les points forts : Une synthèse des meilleures approches au niveau international ; Une mise en pratique facile! ; Une bibliothèque de 110 exemples de méthodes de visualisation de l'information ; Plus de 300 illustrations pour un parcours d'apprentissage complet ; Un CDROM avec 20 cas pour mettre en pratique les concepts abordés.
L'analyse quantitative des données
Storytelling et Contenu de marque La puissance du langage à l'ère numérique Jeanne Bordeau Editeur : Ellipses Parution : septembre 2012 256 pages - 25 € EAN : 9782729875947 Le développement du langage numérique est en marche ! À l'heure de l'interaction et de la conversation numérique quasi instantanée avec le consommateur, la communication digitale nécessite d'être présent sur tous les fronts. L'entreprise court ainsi le risque de fragmenter son discours et de perdre en lisibilité. Comment créer et maintenir un langage cohérent, juste et convivial sur le web ? Quels sont les codes à respecter ? La communication digitale annonce-t-elle une révolution du langage ? Quelle place accorder au Storytelling et au Contenu de marque (Brand content) dans cet univers en constante mutation ? Quelles sont leurs caractéristiques, leurs différences ? Jeanne Bordeau offre à ce sujet des points de vue croisés d'experts comme Michael Aidan, Christophe Barbier, Marco Tinelli ou Jean Watin-Augouard. De nombreux exemples commentés abordent des situations pratiques variées traitant du Contenu de marque et du Storytelling : SNCF, Puma, 3 Suisses, Total, Pampers, Sarenza, Prada… Cet ouvrage offre aux professionnels des outils pour structurer leur communication écrite et des méthodes pour construire une stratégie de langage rationnelle, sensible et cohérente. L'entreprise et la marque ne resteront auteurs et maîtres de leurs propos qu'à la condition d'inventer une histoire irriguée par une identité sémantique et des valeurs authentiques. Car conter une histoire, ce n'est pas raconter des histoires.
L'enquête et ses méthodes Olivier Martin Editeur : Armand Colin Parution : septembre 2012 128 pages - 9,8 € EAN : 9782200278267 Cette 3e édition actualisée répond avec clarté et rigueur aux questions majeures que se pose tout concepteur d'enquête par questionnaire (comment concevoir un échantillon ? qu'est-ce qu'un sondage représentatif, un chiffre « significatif » ou une « bonne estimation » ?) et toute personne souhaitant analyser des données quantitatives (comment recoder des variables et concevoir des indicateurs permettant d'étudier des grandeurs inobservables directement ? comment étudier leurs relations ? comment simplifier les analyses ?). Sans recours inutile au formalisme mathématique, il expose les principes des raisonnements statistiques et des arguments probabilistes. Des exemples issus d'enquêtes récentes ou classiques illustrent chaque présentation de méthodes ou de concepts. Tous les éléments sont fournis pour comprendre, analyser et produire des données, que ce soit en sociologie ou dans les domaines des études, du marketing, des sondages d'opinion ou des enquêtes de comportement. L'ouvrage répond aux besoins bien identifiés des étudiants, enseignants et intervenants en sciences sociales. Olivier Martin, sociologue et statisticien, est professeur à l’université Paris Descartes, chercheur au Cerlis (CNRS) et responsable du master « Sociologie d’enquête ».
54 50
Survey Magazine Avril 2013
Exploration de données Méthodes et modèles du data mining Daniel T. Larose Editeur : Vuibert Parution : avril 2012 350 pages - 38 € EAN : 9782311007411 Comprendre le data mining pour en exploiter toutes les possibilités et découvrir des pépites cachées dans vos bases de données. Grâce à des moteurs de recherche toujours plus puissants, le data mining (exploration ou fouille de données), est devenu un outil de veille technologique, stratégique et concurrentielle incontournable, aux domaines d'application nombreux (analyse des comportements des consommateurs, gestion de la relation client, maintenance préventive, détection de fraudes, optimisation de sites web...). Mais seule une bonne compréhension de ses mécanismes complexes, au carrefour de l'algorithmique et de la statistique, permet de l'utiliser efficacement pour transformer une masse de données en information utile et mobilisable. Mêlant théorie et pratique, abondamment illustré, ce livre propose une méthodologie claire en expliquant les concepts, les techniques et les outils du data mining. Il présente les principaux algorithmes et fournit des exemples de leur utilisation sur de grands ensembles de données portant sur des cas réels, dont de nombreux cas français.
RESSOURCES Ré-inventer les marques
De la marque au branding
La fin des marques telles que nous les connaissions
Vers un nouveau modèle : le cloud-branding
Jean-Noël Kapferer Editeur : Eyrolles Parution : 3 janvier 2013 239 pages - 20 € EAN : 9782212555448
Monique Wahlen et Benoît Hery Editeur : Dunod Parution : 27 septembre 2012 248 pages - 27 € EAN : 9782100582297
Le diagnostic de l'expert français des marques, professeur à HEC et chef de file depuis vingt ans de la réflexion sur les marques et leur management. Au moment où chacun s'interroge sur la Marque France, sur notre industrie, sur nos marques, sur les délocalisations, il est important d'analyser les causes profondes de cette situation. Un certain management des marques n'a-t-il pas vécu ? En tous cas il n'a pas empêché l'ascension des marques de distributeur. Mais, en même temps, la marque se diffuse dans toutes les sphères de notre vie publique comme privée. On peut parler de « toutmarque ». Contradiction ? Ou bien est-ce la notion même de marque qui a changé ? Il faut alors revoir toutes nos méthodes, nos visions. Fort de son expérience de consultant dans tous les secteurs de notre économie et de sa vision mondiale, l'auteur apporte une analyse sans concession sur la situation présente et ses causes. S'appuyant sur de nombreux exemples, il propose des voies et des méthodes nouvelles pour construire des marques plus fortes. En premier lieu pour la Marque France.
La marque, trop souvent cantonnée au corporate, est devenue une activité transversale, une pratique à part entière nommée branding. Le branding occupe une place fondamentale dans la réflexion stratégique des entreprises, car il est à la fois la base du projet d'entreprise en amont et le socle des stratégies opérationnelles de marketing et de communication en aval. Tout en rappelant les fondamentaux indispensables, cet ouvrage propose un nouveau modèle de gestion des marques : le cloud-branding. Avec le cloud-branding, il est question de scénario, de conversation, d'expériences, de territoire, de contenus, de parties-prenantes, d'accès et de mobilité. La marque devient alors multidimensionnelle : elle s'exprime sur plusieurs registres et sa communication crée un écosystème de contenus qui fait voler en éclats certaines notions classiques du marketing et de la communication, telles que l'USP (unique selling proposition), la cible, le message ou le GRP (gross rating point).Ce livre s'adresse aux professionnels du marketing et de la communication, mais il intéressera également les étudiants des deux secteurs.
Mercator 2013 - Théories et nouvelles pratiques du marketing
Internet Marketing 2013 Storytelling et Big Data
Jacques Lendrevie et Julien Lévy Parution : Dunod Parution : Septembre 2012 1140 pages - 55 € EAN : 9782100582464 MERCATOR est complet et accessible. Avec plus de 1 000 exemples, près de 100 mini-cas, 500 illustrations et tableaux, MERCATOR couvre l'ensemble du marketing appliqué à tous les secteurs d'activité (B to C, B to B, Services, Multinational...). MERCATOR est opérationnel. Les concepts fondamentaux du marketing sont rattachés à leurs applications concrètes, aux bonnes pratiques et aux innovations réelles. La boîte à outils regroupe 25 concepts et techniques qui facilitent la mise en place de stratégies marketing efficaces. MERCATOR accompagne les changements du marketing. Toujours en phase avec les évolutions les plus récentes, MERCATOR complète ses nombreux développements consacrés à Internet par un chapitre nouveau sur le marketing des réseaux sociaux. MERCATOR toujours avec vous : e-book inclus ! Téléchargez MERCATOR en version pdf ou ePub, pour Windows et Mac à partir du code personnel présent dans votre livre.
Willy Braun - Neila Romdane Editeur : Elenbi Editeur Parution : 30 janvier 2013 554 pages - 62 € EAN : 9782914901185 La nouvelle version entièrement réécrite de Internet Marketing permet de se former et de réactualiser ses compétences en découvrant les innovations clés, les tendances, les outils et les acteurs du marché. L'édition que vous tenez entre vos mains souligne l'importance du storytelling et de la Big Data pour un marketing personnalisé, en temps réel. Vous allez découvrir les derniers chiffres du marché ainsi que les conseils et les retours d'expériences d'une centaine d'annonceurs et d'experts qui, à travers neuf chapitres, vont vous faire découvrir les coulisses du digital et de la culture web.
Les meilleurs ouvrages de Marketing, Etudes ou Analyse de données sont sur
www.survemag.eu
Ouvrage en Français ou Anglais
Remise immédiate de 5% - Livraison gratuite partout en France, à partir de 20 € d’achats
Les technologies mobiles ouvrent des perspectives formidables pour la collecte de données sur le terrain. Nous avons développé la solution optimale pour exploiter facilement et pleinement ce potentiel.
mobisurvey
Solution disponible pour tablettes et smartphones Androïd et iPhone/iPad.
une nouvelle ère pour les enquêtes Il y a quelques années, le Web a révolutionné le recueil de données. Le logiciel Net-Survey a permis depuis, à des milliers d’utilisateurs, de concevoir et diffuser facilement des enquêtes et des formulaires web et Intranet. Aujourd’hui, les technologies mobiles ouvrent une nouvelle ère, en offrant des possibilités extraordinaires : instantanéité, portabilité extrême, ergonomie et facilité d’utilisation, communication en temps réel, liaison avec des bases de données, localisation gps, capture multimédia (photos, sons, vidéos, codes-barres, signatures...), etc. Les applications envisageables sont innombrables dans les domaines du marketing et des études, du commercial, de la qualité, de la sécurité, de l’audit et inspection, de la logistique, de l’organisation, des ressources humaines, de la formation, du SAV, et dans bien d’autres domaines...
www.soft-concept.com 71 cours Albert Thomas - 69447 LYON Cedex 03 Tél : 04 78 54 64 00 - Fax : 04 72 33 19 91