08/02/2007
VadeMarketum
450 pages – et c’est gratuit ! Surprenant ? Sympa ? Stupide ? J’ai été un peu surfer sur son site*, avant de lui e-mailer les deux questions suivantes, hier soir ; la nuit portant conseil, les réponses m’attendaient dans ma boîte aux lettres ce matin.
Marketingisdead : Le VadeMarketum 2007 est gratuit : la connaissance ne vaut plus grand chose que tu l'offres comme ça ?
Stéphane Boucharenc : Gratuité ne veut pas dire sans valeur, tout d’abord il y a les jours de travail que cela représente pour compiler toutes ces données et les actualiser, cela a une certaine valeur pour moi, ensuite cette compilation a de la valeur pour les utilisateurs en tant qu’outil « anti-gaspi » (de temps) même si ces données sont éparpillées sur Internet et théoriquement accessibles à tous.
Alors pourquoi gratuit, il y a 2 raisons, des contraintes juridiques d’abord, j’ai obtenu l’autorisation de présenter certains extraits de nomenclatures internationales (exemple les maladies (CIM10) maintenu par l’OMS) uniquement sous condition de gratuité, des produits complets et payants étant diffusés par ces organismes. Il y a également un aspect philosophique, si l’on veut qu’Internet ne soit pas qu’une gigantesque galerie marchande, il faut que chacun accepte de partager un peu de son savoir, de son temps et de ses ressources (voir projets Wikipédia, Open source). Donc à mon modeste niveau, le VadeMarketum est ma contribution à cette évolution.
En aparté, je trouve scandaleux que de nombreuses statistiques publiques, financées par les contribuables, ne soient pas accessibles sur Internet, par exemple il est impossible de trouver à ma connaissance un tableau synthétique de répartition de l’ensemble des entreprises françaises en grands secteurs et classes de taille. Je remarque que d’autres pays que la France sont plus ouverts de ce point de vue.
On ne demande pas à avoir accès à l’intégralité des données, seulement à quelques grandes statistiques de cadrage nécessaires pour préparer les études de marchés. On a parfois l’impression d’assister à la stratégie du coffre-fort (sensations que l’on a également dans certaines bibliothèques et certains musées pour l’accessibilité aux œuvres).
Certaines fois, cela tourne au ridicule, exemple sur les sites français il est impossible d’accéder gratuitement à la répartition des décès en France par causes de mortalité, mais par obligation statistique (avec un certain délai certes), ces statistiques sont remontées dans le système statistique européen, elles deviennent donc accessibles via Eurostat sur le web, étonnant non ! Il faudrait vraiment changer cela, et avec Internet les questions de coût ne sont plus justificatrices.
Marketingisdead : Sur ton site, tu parles d'innovation : mais en statistiques, tout date d'il y a une bonne centaine d'années, il n'y a grand chose à innover.
Stéphane Boucharenc : Cette affirmation n’est pas exacte selon moi, il est vrai que la base de l’exploitation d’une étude de marché reste les tableaux croisés de données et les bon vieux tests statistiques de grand-papa, mais ce n’est pas parce que l’on rentre dans l’ère des nanotechnologies, que 2 et 2 ne font plus 4 (du moins au niveau de la vie courante).
De ma formation en sciences expérimentales, il me reste une affirmation : les faits sont têtus, on a beau retourner l’angle d’approche dans tous les sens, si on est en face d’un phénomène lourd, on ne pourra pas l’effacer, et par exemple si les hommes consomment massivement plus de bière que les femmes, il sera très difficile de trouver une sous population où le contraire est vrai, c’est un aspect que j’ai maintes fois constaté durant mes 20 années d’expériences en traitement d’études, et non une posture théorique.
Maintenant le traitement a évolué au cours de ces 40 dernières années grâce aux puissances de calcul avec notamment l’introduction des analyses multivariées : Analyses factorielles, Typologies, Segmentations etc. Elles se sont banalisées et sont utilisées régulièrement dans les études de plus en plus d’ailleurs comme de simples intermédiaires de calcul et non plus comme une fin en soi. Comme les logiciels crachent des chiffres dans toutes les circonstances, tout le savoir faire de l’homme de l’art est la préparation des variables, l’élimination des aspects non pertinents, l’enchaînement des techniques par exemple : Analyses Factorielles, puis Typologie sur ces axes, puis Segmentation pour retrouver plus facilement les types sur un nombre restreint de variables.
Et puis il y a des modes, il y a 6 ans il y a eu la mode des réseaux de neurones, certes cela produisait des groupes intéressants, mais comme il n’y a qu’une boîte noire pour pouvoir expliquer en détail la formation de ces groupes et pour avoir des règles d’affectation des individus, le soufflet est retombé.
Par contre les régressions PLS qui permettent de faire des régressions sur des ensembles de données fortement corrélées entre elles (ce qui provoque des problèmes d’instabilité des calculs dans la méthode classique) se sont bien implantées depuis quelques années. Et tous les 3-4 ans on entend parler de nouvelles méthodes « ultra puissantes », « génialissimes », seul le temps permettra de voir si elles pourront prendre leur place aux côtés des autres.
De mon point de vue, les méthodes qui marchent bien sont celles qui permettent de revenir vers les données d’origines (tableaux de pourcentage, de moyenne) en les éclairant d’un jour nouveau. Par exemple pour une bonne typologie, lorsque l’on regarde les tableaux croisés, on voit clairement apparaître des profils (même si on sait que toutes les personnes d’un type ne sont pas dans le même moule, on est des êtres humains quand même, avec nos contradictions personnelles !) et le commercial averti saurait mettre des noms de clients particuliers pour illustrer ces types.
Concernant les innovations que je revendique, il s’agit d’une nouvelle approche pour la restitution des résultats soit sous forme de feuilletages Excel (un tableau par onglet, je reconnais on est quelques-uns à le faire sur la place de Paris), soit sous forme d‘applicatifs Excel permettant de livrer des résultats d’analyse de données de manière autonome et pédagogiques, ce sont les Calculoïdes.
En 2 mots, par exemple le Regressoïde, permet de calculer le résultat d’une régression sur tout ordinateur sans posséder le programme SPSS, SAS, STATISTICA … qui a permis de l’établir à l’origine, autre exemple le Conjointoïde, permet de faire des simulations de parts de marché à partir des résultats d’un trade-off, sans avoir de programme d’analyse conjointe etc.
Concrètement, on dissocie donc le logiciel statistique d’origine de l’exploitation de ses résultats, de plus comme c’est sous Excel, on peut avoir l’option d’une visée pédagogique (totale transparence des mécanismes de calcul) ou opérationnelle et cryptée (par exemple l’équation de régression est protégée par mot de passe, et des variables superflues sont à renseigner, il est donc très difficile de retrouver le mécanisme de calcul).
Voilà ce que j’appelle approche innovante de mon point de vue, c’est quelque chose que je n’avais jamais vu en institut de sondage durant ma carrière.
21:47 Publié dans Interviews | Lien permanent | Commentaires (1) | Facebook | |
Commentaires
2 et 2 ne font pas 4 à l'échelle de l'atome... Designons ensemble le monde nano de demain...
Écrit par : pinch | 09/02/2007
Les commentaires sont fermés.