Une déconstruction des outils de mesure en marketing
Jean-Philippe Galan
CRM-Marketing (EAC-CNRS 5032)
IAE - Université de Toulouse 1 Capitole
“Ertes Geschoss:
Hier leben die Blinden die glauben was sie sehen
und die Tauben die glauben was sie hören”
Einstürzende Neubauten - Haus Der Lüge
© 1989, Thirsty Ear Records
1
Une déconstruction des outils de mesure en marketing
Résumé :
Cette communication propose une réflexion sur les mesures quantitatives en marketing dans
un contexte de remise en question du paradigme positiviste dominant la littérature des
cinquante dernières années. En proposant une déconstruction, il s’agit de montrer que les
mesures créées dans le cadre du paradigme de Churchill sont fortement contingentes et
dépendent d’éléments historiques, sociologiques et culturels. Ce faisant, cette déconstruction
suggère que les outils de mesure peuvent s’abstraire d’un positionnement épistémologique
particulier et peuvent se concevoir selon une perspective réaliste tout autant que
constructiviste. Cette ouverture vient donc poser la question de la place des méthodes
quantitatives à l’aune d’un nouveau paradigme plus interprétatif.
Mots-clés : épistémologie, méthodologie, réalisme, constructivisme, échelles de mesure
A deconstruction of marketing measurement tools
Abstract:
This paper proposes a thought on multi-item measures in marketing, in a context of suspicion
about positivism that dominated marketing literature for five decade. In intending a
deconstruction, it is shown that the measures created according to Churchill's paradigm are
highly contingent and depend on historical, sociological and cultural context. In doing so, this
deconstruction suggests that the measurement tools are not necessarily tied with a specific
epistemological position and can be conceived in a realistic perspective as well as in a
constructivist one. This entails the question of the use of quantitative methods in an emergent
interpretive paradigm.
Key-words: epistemology, methodology, realism, constructivism, measurement scales
2
Une déconstruction des outils de mesure en marketing
Introduction
La littérature en marketing de ces cinquante dernières années, est marquée par un recours
récurrent à la modélisation statistique du comportement du consommateur. Alors que dans un
premier temps, les mesures utilisées pour cette modélisation ne faisaient que rarement l’objet
d’une évaluation de leurs qualités psychométriques (Jacoby, 1978), Churchill (1979) a
importé de la littérature en psychologie un certain nombre de notions afin de proposer une
procédure de construction d’outils de mesure fondée sur l’évaluation de la fiabilité et de la
validité de ceux-ci. Cette procédure, connue sous le nom de « paradigme de Churchill » a fait
l’objet d’un fort engouement dans la communauté marketing. Qu’on le nomme positivisme ou
empirisme logique (e.g. Peter et Olson, 1983), le positionnement de cette approche est
réaliste : il existe un concept dans « l'esprit du consommateur » (Ehrenberg, 1968 : 57), réalité
qui peut être atteinte par la mesure et la combinaison d'attributs reflétant ce concept.
Portée par le courant postmoderne, une partie de la littérature en comportement du
consommateur tend à remettre en cause l’analyse positiviste et Sherry (1991) décrit le
mouvement, amorcé par les recherches en comportement du consommateur, comme un
« tournant interprétatif ». Alors que ce tournant doit être synonyme de renouveau et de
revitalisation des recherches et de la discipline, il convient de veiller à ce qu’il ne soit pas
synonyme de choix (exclusif) et de sclérose méthodologiques. En effet, ainsi que le souligne
Deshpandé (1983), en distinguant les écoles de pensée il y a une tendance à les catégoriser de
telle façon qu’elles semblent indépendantes et mutuellement exclusives. Le choix d’une
posture épistémologique entraîne souvent, par filiation des choix méthodologiques particuliers
3
qui, au final, débouchent sur une rivalité entre les approches qualitative et quantitative qui
stigmatise les oppositions entre positivisme et interprétativisme.
Il semble donc nécessaire d’entamer une réflexion sur la place de l’approche quantitative dans
la recherche en comportement du consommateur à l’heure où nous assistons probablement à
l’émergence d’un nouveau paradigme (Arnould, 2006), porté par les courants de la consumer
culture theory (CCT ; Arnould et Thompson, 2005) et de la service-dominant logic (SDL ;
Vargo et Lush, 2004). L’approche quantitative a été pendant de longues années l’apanage
d’une logique hypothético-déductive liée à la posture positiviste moderne. Ainsi elle a
endossé de porter le projet moderne et avec lui l’objectivité, la réification, la causalité, la
généralisation, etc. Cependant, elle n’en est pas moins une méthode qui n’échappe pas à des
contingences historiques, sociales, culturelles.
L’objectif de cette communication est de présenter ces contingences, en quoi elles affectent la
construction des outils et exposer en quoi l’utilisation de ces outils de mesure peut se libérer
d’un positionnement épistémologique particulier. Il ne s’agit pas ici de présenter ni
d’alimenter les débats entre approches scientifiques moderne (i.e. positiviste) et postmoderne
mais plutôt de proposer une déconstruction – au sens d’Heidegger – c'est-à-dire non une
démolition mais plutôt de resituer la méthode de construction des outils de mesure dans son
contexte historique et philosophique pour en montrer le fonctionnement et mettre en lumière
ses significations socio-historiques (Thompson, 1993). Ainsi, après avoir situé le paradigme
de Churchill dans son contexte historique, seront présentés les mécanismes qui, dans la
construction des outils de mesure, sont affectés par des facteurs subjectifs, sociaux,
historiques, culturels et qui au final, permettent une ouverture épistémologique vers un
4
positionnement réaliste ou constructiviste qui dépend de la représentation que se fait le
chercheur de la réalité et non de l’outil qu’il utilise.
1. L’ère moderne de la recherche en marketing
Si l’on situe généralement le début de l’ère moderne à l’époque des Lumières qui ont porté le
projet d’ « éclairer » l’individu par la science, concernant la recherche en marketing, les
lumières de la science objective furent allumées par deux fondations – Ford et Carnegie – ceci
au milieu du vingtième siècle, afin de libérer la littérature marketing de la subjectivité des
chercheurs et praticiens, et passer de l’art à la science du marketing (Converse, 1945). Ainsi
que le rapporte Cochoy (1999), ces deux fondations avaient pour objectif de financer une
réforme de l’enseignement et de la recherche en gestion en remplaçant notamment les
compétences et savoir-faire individuels par une connaissance scientifique et objective. Ceci
s’est fait par le recrutement de spécialistes des techniques quantitatives et des sciences
sociales ainsi que par la publication d’ouvrages clairement orientés (e.g. Bass et alii, 1961 ;
Frank, Kuehn et Massy ; 1962).
Cette époque est marquée par une fascination quant à l’approche scientifique qui profite de
préjugés très favorables du fait des progrès très médiatisés qu’elle a permis dans d’autres
disciplines. Le marketing récupère alors des théories, méthodes et outils provenant de ces
disciplines. Tout d’abord bien entendu, il s’appuie sur une logique hypothético-déductive,
caractéristique de la science moderne. Ensuite, la « révolution quantique » (Bitbol, 1997)
propose de prendre pour réels des objets inobservables, qui trouvèrent leurs places dans les
travaux des psychologues sur les analyses factorielles (Spearman, 1904) pour aboutir aux
modèles de variables latentes (Lazarsfeld, 1950) et à l’analyse factorielle confirmatoire
5
(Joreskog, 1971). Enfin, les progrès en informatique, aboutirent au développement de
logiciels spécifiques (SPSS : Nie, Bent et Hull, 1970 ; et LISREL : Joreskog et van Thillo,
1972) permettant à ces techniques de modélisation de se démocratiser dans la communauté
scientifique.
C’est sur la base de cette réforme qu’est né le « paradigme » de Churchill, destiné à fournir
aux chercheurs en marketing, une base scientifique pour construire des mesures fiables et
valides, dans l’objectif de modélisation du comportement du consommateur. Quoiqu’il fut
parfois amendé (e.g. Gerbing et Anderson, 1988), ce paradigme est demeuré le cadre
principal. Naturellement, l’acceptation par la communauté de ce cadre de référence comme
outil unique pour conduire des recherches, et ainsi délimiter ce qui est du domaine de la
science de ce qui ne l’est pas marque le début d’une nouvelle ère. En effet, dès le début des
années 1980 (e.g. Anderson, 1981 ; Deshpandé, 1983 ; Peter, 1982 ; Olson, 1981) de
nombreux auteurs remettent en cause l’approche positiviste et la possibilité d’une réalité
unique que des observateurs indépendants pourraient mesurer par des méthodes objectives,
permettant la formulation de lois universelles. Sherry (1991) appellera ce moment le
« tournant » interprétatif pour regrouper les « alternatives postmodernes » au paradigme
dominant. L’approche postmoderne, conteste la possibilité d’une vérité liée à une réalité
objective que la démarche scientifique tend à faire émerger en confrontant des théories aux
données. Au contraire, dans cette perspective, il existe plusieurs réalités qui sont des
constructions dont la compréhension par le chercheur dépend de son environnement socio-
culturel, de l’interprétation subjective qu’il fait du phénomène étudié (Sherry, 1991), et
d’éléments sociaux à l’intérieur de la communauté des chercheurs.
6
Dans l’approche quantitative, la modélisation du comportement du consommateur se
caractérise par la collecte de données afin de mesurer des concepts abstraits et non
observables directement. Ainsi, ce ne sont pas les concepts qui sont mesurés, mais leurs
attributs. Avant de tenter de relier les concepts entre eux afin de confronter une théorie au
terrain, le chercheur positiviste doit vérifier que les attributs qu’il a choisis sont un « bon »
reflet du concept étudié. Churchill (1979) propose ainsi, dans le but de fournir des mesures
fiables et valides une procédure assez claire : le chercheur après avoir « spécifié le domaine
du construit »1 (p. 67), doit « générer » une liste d’items, qui sont les questions posées aux
consommateurs étudiés. L’outil doit ensuite être « purifié » (p. 68), c'est-à-dire nettoyé des
questions superflues, mal comprises, ou ne mesurant pas le concept étudié. Il est ensuite
reformulé et sa fiabilité (p.69) est de nouveau évaluée ainsi que sa validité (p.70), ceci de
manière répétée jusqu’à ce que l’outil satisfasse les critères imposés par le chercheur. Ce
processus entraîne donc que le chercheur fait des choix qui sont à l’origine de la définition
opérationnelle du concept qui sera utilisé dans son modèle : le construit. Trois moments
paraissent particulièrement critiques et sont abordés dans la section suivante : purification du
construit sur la base de l’alpha de Cronbach, détermination du modèle de causalité entre le
construit et ses attributs, évaluation de la dimensionnalité de l’outil et du modèle de mesure.
2. Subjectivité, contextualité et interprétation dans le paradigme de Churchill
2.1 Fiabilité et alpha de Cronbach
La purification des outils de mesure se fait sur la base de leur fiabilité entendue comme le
degré auquel la mesure est exempte d’erreur et ainsi permet des résultats cohérents lors de
1 Ceci implique déjà bien des choix de lecture (y compris d’accès à la littérature) et d’organisation de la
littérature choisie qui débouchent sur une vision très subjective du concept étudié, ou parfois sur une absence de
définition claire (MacKenzie, 2003).
7
mesures répétées (Peter, 1979). Dans les faits, cela correspond donc à enlever ou à ajouter des
items sur la base de cette fiabilité et ainsi modifier la définition opérationnelle du concept.
Théoriquement, le processus doit tendre vers une adéquation entre le concept et le construit
statistique. Cependant, Churchill lui-même note qu’avec le temps, la procédure est devenue
une routine manquant de réflexion (Churchill, 1998), un mécanisme séparant la
conceptualisation de la construction des objets statistiques. Pour Finn et Kayandé (2005), au
fil du temps, les chercheurs se sont focalisés sur la manière d’obtenir les chiffres appropriés à
la fiabilité et la validité statistiques des outils, ceci au dépend de la conceptualisation des
construits. Dans cette perspective, les itérations de « purification » au lieu d’ajuster le
construit au concept, entraînent un écart entre la conceptualisation et l’opérationnalisation du
construit qui se trouve davantage défini par le terrain que par la théorie. En outre, le choix
d’un niveau de fiabilité, tout comme la compréhension des indices de fiabilité sont des
éléments subjectifs et/ou contingents qui laissent une grande marge d’interprétation.
L’outil le plus utilisé pour mesurer la fiabilité d’un instrument est le coefficient alpha de
Cronbach (1951). Plus ce coefficient alpha est élevé (il va de 0 à 1), et plus l’outil de mesure
est fiable au sens statistique. Quand il est proche de 0, les items n’ont rien à voir entre eux.
Mais quand il est égal à 1, cela signifie que les réponses aux différentes questions (items) sont
identiques. Il est dès lors difficile d’avancer que 1 soit une « bonne » valeur car cela signifie
que l’apport marginal de chaque question dans la définition du construit est nul.
Contrairement à de nombreuses statistiques qui suivent une loi (normale, student, khi², etc…)
et pour lesquelles il est possible d’établir une valeur de référence, l’alpha de Cronbach n’en
suit aucune. En outre, dans son article fondateur, Cronbach (1951) ne propose aucune grille
d’interprétation pour son coefficient. Or, quand Churchill (1979) et Peter (1979) font de cet
indice, l’instrument privilégié de la construction d’outils de mesure en marketing, les
8
chercheurs du domaine, qui ne sont pas encore tous familiers de l’outil statistique ont besoin
de repères. Les deux auteurs le savent, et associent à cet indice le nom de Jum Clarence
Nunnally, un des plus célèbres psychométriciens du vingtième siècle. Churchill (1979 : 68) et
Peter (1979 : 15) citent le même extrait de l’ouvrage de Nunnally (1967 : 226), qui indique
que pour les premières étapes de la recherche, un coefficient alpha de 0,5 à 0,6 est suffisant et
qu’aller au-delà de 0,8 est inutile. En revanche, pour les applications, lorsque « d’importantes
décisions » sont liées à ce test, un score de 0,9 est un minimum et 0,95 doit être considéré
comme un standard à obtenir. Au moment de la publication de l’article de Churchill (1979),
Nunnally est pourtant déjà revenu sur ces chiffres. En effet, dans l’édition de 1978 (p. 245), ce
n’est plus un coefficient de 0,5 à 0,6 qui est nécessaire pour les premières étapes, mais une
valeur de 0,7. Le reste est inchangé. Décédé en 1982, ces standards ne seront plus modifiés
(Nunnally et Bernstein, 1994 : 265). Quelle que soit l’édition, Nunnally n’a jamais fourni une
base empirique ou théorique pour justifier les niveaux attendus du coefficient alpha. Ils sont le
fruit du bon sens de l’auteur et de son expérience. Ainsi, seul le renom de Nunnally et
l’impact de l’article de Churchill (1979) en marketing, feront de ces chiffres une loi..
Pourtant, fixer un seuil a priori à l’alpha n’est pas du tout objectif dans la mesure où le niveau
de l’alpha dépend de la corrélation moyenne entre les items, mais également de leur nombre.
A partir de la formule simplifiée de l’alpha standardisé, utilisé par la plupart des logiciels
d’analyse de données2, il est aisé de montrer la difficulté de se fixer une règle de décision
pour la définition opérationnelle d’un concept en se basant sur un seuil du coefficient alpha.
Par exemple, un niveau de 0,75 peut être atteint avec une corrélation moyenne inter-items de
0,3 si l’outil est composé de 7 items ((7*0,3)/[1+(7-1)*0,3] = 0,75), ou de 0,5 pour un outil
2
rk
rk
×−+
×=
)1(1éstandardisα où k est le nombre d’items composant l’instrument et r est le coefficient de
corrélation moyen entre les items
9
composé de 3 items ((3*0,5)/[1+(3-1)*0,5] = 0,75). Pour un même niveau de coefficient
alpha, la cohérence entre les items est donc tout à fait différente et se trouve compensée par le
nombre d’items. En d’autres termes, plus grand est le nombre d’items et plus élevée est la
valeur du coefficient alpha, quelle que soit la corrélation moyenne entre les items (figure 1).
Ceci est lourd de conséquences car, pour un outil ayant une faible cohérence inter-items, le
seul moyen d’avoir un niveau élevé du coefficient alpha est de conserver un grand nombre
d’items. Ceci peut amener le chercheur à conserver des items qui n’entrent pas dans la
définition du construit, et éloigner l’opérationnalisation du construit de sa conceptualisation.
Figure 1 – Relations entre le coefficient alpha, le nombre d’items, la correlation inter-items
Dans une perspective réaliste, ceci est problématique et entraîne une discordance qui traduit
une inadéquation de l’outil par rapport à la réalité qui existe indépendamment de sa mesure.
Dans une perspective constructiviste, ceci est inhérent à la démarche car le concept découle
du construit. La démarche est dans ce cas « abductive » : il y a une idée de départ, puis une
construction de la mesure, et finalement un ajustement de la théorie et donc du concept (en
fonction des données) qui n’a aucune existence indépendante. Le croisement des perspectives
réaliste et constructiviste de la mesure se situe ainsi à un niveau ontologique : le concept
existe et la mesure est son reflet, le concept n’a aucune existence indépendante et il découle
de la mesure. Cette direction de la relation (concept � construit versus construit � concept)
se retrouve plus fondamentalement dans la relation des construits et de leurs attributs.
10
2.2 Relations construit – attributs
Le paradigme de Churchill (1979) et la théorie de la mesure sous-jacente à la modélisation du
comportement du consommateur sont fondées sur l'idée qu'il existe un concept dans « l'esprit
du consommateur » (Ehrenberg, 1968 : 57), une réalité qui peut être atteinte par la mesure et
la combinaison d'attributs reflétant ce concept. La combinaison de ces attributs est alors
associée à une variable latente qui est une variable non observable mais dont l'existence est
inférée à partir des propriétés de ses attributs (observables). Cette variable latente est donc, en
théorie, l'équivalent statistique du concept présent dans l'esprit du consommateur. Dans cette
perspective réaliste, le construit statistique est relié à ses attributs dans une relation de
causalité allant du construit vers les attributs, on dit que les attributs reflètent la variable
latente, et l’on parle d’attributs réflectifs. Or, parfois, il arrive que le choix des attributs par le
chercheur implique que le construit mesuré ne soit pas à l'origine des attributs observés mais
au contraire, en être une conséquence. On dit alors que les attributs forment le concept et l’on
parle d’attributs formatifs. De nombreux auteurs (e.g. Bollen et Lennox, 1991 ; Chin, 1998 ;
Crié, 2005 ; Edwards et Bagozzi, 2000 ; Jarvis, Podsakoff et MacKenzie, 2003) ont souligné
le fait que dans le cas d’attributs formatifs, les décisions de « purification » fondées sur la
fiabilité ne peuvent pas s’appliquer, et conduisent même à la détérioration de l’outil.
La théorie de la mesure sous-jacente au paradigme de Churchill est fondée sur l’idée que les
attributs reflètent le construit. Etant donné qu’ils sont le reflet du construit, leurs variations
doivent refléter les variations du construit. Ainsi, il est attendu qu’ils varient « ensemble », à
un degré évalué sur la base du coefficient alpha. La purification consiste donc, la plupart du
temps, à éliminer les attributs qui ne varient pas comme les autres, ceci afin d’atteindre une
valeur élevée du coefficient alpha. Au contraire, les attributs formatifs, ne sont pas supposés
11
varier ensemble. Bollen et Lennox (1991) et à leur suite d’autres auteurs (Chin, 1998 ;
Edwards et Bagozzi, 2000 ; Crié, 2005) donnent l’exemple du statut socio-économique. Si les
attributs choisis pour mesurer ce statut sont l’éducation, le revenu, le prestige de l’activité
professionnelle, il apparaît que ces attributs sont des causes et non des conséquences du statut.
De ce fait, leur corrélation n’est plus une condition de leur présence dans le construit mesuré.
En effet, si le revenu augmente, le statut socio-économique peut augmenter sans que le niveau
d’éducation soit changé. Ainsi, éliminer une des mesures diminue la validité du construit car
cela masque une facette particulière de celui-ci et restreint ainsi son « domaine » (Churchill,
1979). Du sens de ces relations (cf. figure 2) dépend ladécision de supprimer ou non un
attribut de la mesure, ce qui aura par la suite un impact sur la définition du construit. Dans le
cas du modèle réflectif, la suppression d’un des items, ne bouleverse pas fondamentalement la
définition du construit. En revanche, dans le cas du modèle formatif tel que le statut socio-
économique, ne pas conserver le revenu ou le niveau d’étude diminuerait fortement la qualité
de la mesure. Sur la base du coefficient alpha, c’est pourtant ce qu’il se passerait.
La pratique « normale » de l’analyse des variables latentes suppose donc que le chercheur est
conscient des relations qui lient le construit et les attributs. Est-ce le cas ? Si l’on en croit les
conclusions de Jarvis, MacKenzie et Podsakoff (2003), la réponse est non et dans la quasi-
totalité des cas, les chercheurs ne se posent pas la question du sens des relations entre attributs
et construit et appliquent la logique réflective quel que soit le sens de la relation3. Ceci pose la
question du moyen pour déterminer si un attribut est formatif ou réflectif. Ceci est sûrement
possible pour une certaine partie des mesures. A cet effet, Jarvis, MacKenzie et Podsakoff
(2003), Edwards et Bagozzi (2000) ainsi que Crié (2005) énoncent un ensemble de moyens
3 Leur méta analyse suggère que sur 1192 construits publiés dans les quatre meilleures revues en marketing
(Journal of Consumer Research, Journal of Marketing, Journal of Marketing Research, Marketing Science), sur,
29% des construits ont été modélisés de manière incorrecte. A cela il faut ajouter que les construits correctement
modélisés étaient à 96% dans la norme, c'est-à-dire réflectifs (donc probablement pas évalués sous l’angle de la
relation construit – attributs), et que 95% des construits incorrectement modélisés étaient formatifs.
12
pour permettre au chercheur d’arbitrer entre les deux modèles de mesure. Pourtant, il demeure
une part d’interprétation et de subjectivité dans cet arbitrage et certains construits font l’objet
de nombreux débats quant au sens des relations entre construit et attributs. C’est le cas par
exemple de la qualité de service. Pour Wilcox, Howell et Breivik (2008), le choix du modèle
reste problématique et aucun élément ne peut aider le chercheur de manière définitive, et
Rossiter (2002), propose de recourir à des experts pour déterminer la nature du construit.
Figure 2 – Relations construit – attributs dans les modèles réflectif et formatif
Pour Borsboom, Mellenbergh et van Heerden (2003), le choix du modèle (réflectif versus
formatif) dépend de l’ontologie des variables latentes qu’il invoque. Un point de vue réaliste
motive le modèle réflectif parce que les réponses aux items sont censées varier en fonction de
la variable latente. Au contraire le modèle formatif ne requiert pas une interprétation réaliste
et se trouve plus compatible avec une interprétation constructiviste. De ce fait, comme en
psychologie (Borsboom, Mellenbergh et van Heerden, 2003), le modèle standard en
marketing est réflectif et implique que la variable latente est plus fondamentale que les
réponses aux items. Ceci peut éclairer les résultats de Jarvis, MacKenzie et Podsakoff (2003) :
la plupart des chercheurs choisissent par défaut le modèle réflectif car il correspond à leur
positionnement épistémologique. Le chercheur peut concevoir que le modèle est formatif,
Attribut 1 Attribut 3
Erreur
1
Erreur
2
Erreur
3
Construit
Attribut 1 Attribut 2 Attribut 3
Construit Erreur
Modèle réflectif Modèle formatif
Attribut 2
13
mais ce dernier peut être abandonné au profit du modèle réflectif pour une question de posture
épistémologique. Ceci apparaît dans les travaux de Parasuraman, Zeithaml et Malhotra (2005)
pour qui « il pourrait être plus approprié de traiter les dimensions de premier ordre [ de l’outil
E-S-Qual ] comme des indicateurs formatifs du construit latent de second ordre » (p.220) mais
qui choisissent finalement de les traiter comme réflectifs. Cette double perspective (réaliste vs
constructiviste) fondée sur l’ontologie des variables latentes se retrouve à un niveau plus
général dans la définition du modèle de mesure dans son ensemble.
2.3 Dimensionnalité de l’outil et modèle de mesure
La procédure de création d’outils de mesure selon le paradigme de Churchill repose sur
l’unidimensionnalité des construits (Churchill, 1979 ; Gerbing et Anderson, 1988). Lorsque le
chercheur « purifie » son outil, il le fait sur le postulat que chaque item doit refléter des
variations du construit latent. Aussi, tout item ne reflétant pas ces variations est supposé non
pertinent. Ceci peut arriver lorsque l’item est mal rédigé ou mal compris des répondants mais
cela peut également se produire lorsque l’item mesure autre chose que le construit tel qu’il a
été conceptualisé par le chercheur. L’analyse factorielle exploratoire permet au chercheur
d’obtenir la structure des items a priori. Le chercheur peut avoir anticipé, sur la base de sa
conceptualisation, l’existence de plusieurs facettes de son construit, plusieurs dimensions.
Mais parfois, ces dimensions peuvent apparaître contre toute attente, du fait d’une faible
conceptualisation en amont (MacKenzie, 2003). Le chercheur se trouve donc avec plusieurs
construits là où il n’en attendait qu’un. Alors que la théorie de la mesure veut que les items
soient « générés » de manière à mesurer un construit dont le domaine a été « spécifié » en
amont, il s’agit ici de comprendre le lien commun entre les différents items, leur donner un
14
nom, et conceptualiser. La théorie émerge ici des données et non l’inverse. L’analyse
factorielle propose une structure que le chercheur doit interpréter afin de construire sa théorie.
Une fois que les dimensions ont été suggérées par l’analyse factorielle exploratoire, il
convient d’établit combien d’entre elles doivent être retenues pour la conceptualisation du
modèle. Cette décision repose, a priori, sur la littérature liée au concept étudié. Cependant,
dans la pratique, les données peuvent ne pas correspondre aux attentes du chercheur. Il existe
donc des indicateurs permettant de savoir quels sont les facteurs à conserver et ceux à
éliminer. Stewart (1981) appuie sur la marge d’interprétation qui est laissée au chercheur par
les tests disponibles. En effet, celui-ci a le choix entre un nombre minimum de facteurs sur la
base de leurs valeurs propres (critère de Kaiser qui consiste à retenir les facteurs dont la
valeur propre est supérieure à 1) et un nombre maximum de facteurs donné par le « scree
test » ou « test du coude » (Cattell, 1966). Le chercheur choisira donc le nombre de
dimensions à conserver selon la théorie qu’il aura construite et selon sa capacité à interpréter
les dimensions que lui proposera l’analyse factorielle. L’approche réaliste consiste à choisir
ainsi le nombre de dimensions qui se trouve être le plus en adéquation avec le cadre théorique
et surtout avec la réalité supposée du phénomène, l’approche constructiviste consiste à choisir
le nombre de dimensions qui permet l’adéquation statistique la plus élevée.
L’analyse factorielle confirmatoire, apparaît comme fondamentalement réaliste et sa
démarche hypothético-déductive. En effet, il s’agit de confronter un modèle de mesure
(construit sur la base d’une théorie) à des données empiriques. Si le modèle est
statistiquement ajusté aux données (cet ajustement est évalué par un ensemble d’indicateurs),
alors la théorie trouve un support empirique. Il est donc fait l’hypothèse qu’il existe un
« vrai » modèle, qui reproduit la réalité. Pourtant, la pratique de l’analyse confirmatoire
15
permet de se libérer à la fois de la démarche hypothético-déductive et d’un positionnement
réaliste. En effet, une approche plus inductive est possible : les logiciels d’équations
structurelles proposent des améliorations de l’ajustement général du modèle de mesure
(χ²).Concrètement, le logiciel propose de supprimer ou d’ajouter des liens entre les différents
paramètres du modèle, que ce soit entre les variables latentes, les attributs, les termes d’erreur
ou toute combinaison de ces éléments par paire. Ainsi, le chercheur peut se laisser guider
uniquement par les indicateurs statistiques plutôt que par l’adéquation à la théorie pour
construire son modèle de mesure et ainsi obtenir le modèle de mesure le plus adapté aux
données (spécifiques à une population). On comprend que cette pratique peut encore une fois
éloigner le construit du concept. Il apparaît donc encore une fois qu’il incombe au chercheur
d’être fidèle à sa posture épistémologique pour conduire sa recherche. Dans une perspective
réaliste les indicateurs ne doivent être utilisés que pour valider l’hypothèse que le modèle
testé est vrai, dans une perspective constructiviste, le chercheur procède par induction afin
d’obtenir la meilleure adéquation empirique possible. Cette fidélité du chercheur à son
paradigme est ici cruciale car dans certains cas, il n’y a aucun moyen statistique pour décider
d’un modèle de mesure plutôt qu’un autre. En effet, du point de vue de l’adéquation
statistique, certains modèles de mesure sont parfaitement identiques, c’est le cas de l’exemple
proposé par Hershberger (1994) et repris par Borsboom, Mellenbergh et van Heerden (2003)
que nous illustrerons dans la figure 3 par deux modèles testés à l’aide du logiciel LISREL à
partir de données collectées par nos soins. L’ajustement est exactement le même dans les deux
cas. Pourtant, les deux modèles sont fondamentalement différents puisque le premier fait
appel à deux construits et donc deux concepts, alors que le second repose sur un construit
unique. Pour le réaliste, si d’un point de vue statistique les modèles sont équivalents, seul un
modèle est « vrai ». Aussi, la seule conduite à tenir est de choisir le modèle sur la base de la
théorie, ceci quelque soit l’ajustement. En effet, si la théorie testée est fondée sur deux
16
concepts, seul le modèle 1 est évalué. Il est accepté ou rejeté, et le modèle 2 ne peut pas
représenter une alternative car il fait référence à une réalité différente. Pour le constructiviste,
il n’y a pas qu’une réalité, mais plusieurs réalités construites, aussi les deux modèles sont
équivalents et devront être interprétés pour rendre compte de ces multiples réalités.
Figure 3 – Deux modèles pour le même ajustement
Conclusion
L’objectif de cette communication était d’aborder la place des outils de mesure dans la
recherche sur le comportement du consommateur dont la littérature est marquée par un rejet
croissant des méthodes quantitatives, principalement sous l’influence du courant
postmoderne. Il apparaît qu’une opposition située à un niveau philosophique, en l’occurrence
les perspectives positiviste / réaliste d’une part et interprétativiste / constructiviste d’autre
part, se traduise par des prises de position à un niveau méthodologique. Thompson (1993)
explique que dans la narration moderne, les concepts de vérité et de méthode sont liés car
connaître la vérité c’est utiliser la bonne combinaison de méthodes pour collecter des faits
empiriques et analyser leur correspondance avec la théorie. Dans cette perspective, le
X1 X3
Erreur
1
Erreur
2
Erreur
3
A
Modèle 1
X2 X4
Erreur
4
χ² : 4,7 ; GFI : 0,990 ; AGFI : 0,901 ;
NFI : 0,978 ; CFI : 0,982 ; SRMR : 0,0258
Paramètres : 9 ; degrés de liberté : 1
X1 X3
Erreur
1
Erreur
2
Erreur
3
A
Modèle 2
X2 X4
Erreur
4
B
χ² : 4,7 ; GFI : 0,990 ; AGFI : 0,901 ;
NFI : 0,978 ; CFI : 0,982 ; SRMR : 0,0258
Paramètres : 9 ; degrés de liberté : 1
17
positivisme est associé à une logique quantitative et l’interprétativisme à une logique
qualitative. Inversement, toute approche quantitative est perçue nécessairement comme
positiviste. Pourtant, le point de vue défendu ici est que cette stigmatisation (Deshpandé,
1983) ne se justifie pas autrement que par des éléments historiques, sociaux et culturels. En
effet, les chercheurs sont également des consommateurs de méthodes, de logiciels, ou même
de courants théoriques qui sont utilisés comme des offres marketing (e.g. le « mix »
scientifique de Peter et Olson, 1983) ou s’offrant eux-mêmes comme des marques (Cova et
Salle, 2008). Le fait d’utiliser une méthode plutôt qu’une autre est un moyen de signifier son
appartenance à un courant ou une communauté scientifique. A cet égard, Trocchia et
Berkowitz (1999) exposent comment l’outil statistique est un élément fort de la socialisation
des doctorants en marketing qui peuvent être amenés à choisir un positionnement
épistémologique sur cette même base sociale.
Les exemples présentés dans cette communication suggèrent pourtant que l’utilisation des
échelles de mesure en marketing est une pratique ouverte sur le plan épistémologique. Il a été
vu que les construits développés peuvent simultanément être appréhendés selon un point de
vue réaliste ou constructiviste. Le construit statistique n’est pas associé à une seule
perspective, deux mondes y cohabitent. C’est ce que Kuhn (1962 [1983]) appelle
l’incommensurabilité. Les prises de position qui consistent à rejeter l’approche quantitative
dans une perspective interprétativiste peuvent apparaître comme des tentatives de rendre les
différents courants de recherche en comportement du consommateurs commensurables par la
construction de frontières claires à la fois aux niveaux épistémologique et méthodologique
(positivisme/quantitatif versus interprétativisme/qualitatif). Ces tentatives paraissent vaines
car la seule frontière possible se trouve dans le rapport du chercheur à la réalité, non dans la
méthode qu’il emploie.
18
Bibliographie
Anderson P. F. (1981), A review of some recent philosophy and sociology of science
literature, papier de recherche, Virginia Polytechnic Institute and State University.
Arnould E. J. (2006), Service-dominant logic and consumer culture theory: natural allies in an
emerging paradigm, Marketing Theory, 6, 3, 317-334.
Arnould E. J., Thompson C. J. (2005), Consumer culture theory (CCT): twenty years of
research, Journal of Consumer Research, 31, 4, 868-882.
Bass F. M., Buzzell R. D., Greene M. R., Lazer W., Pessimier E. A., Shawver D., Schuchman
A., Wilson G. W. (1961), Mathematicals models and methods in marketing, Homewood, IL,
R. D. Irwin.
Bitbol M. (1997), En quoi consiste la “révolution quantique” ? Revue Internationale de
Systémique, 11, 2, 215-239.
Bollen K., Lennox R. (1991), Conventional wisdom on measurement: a structural equation
perspective, Psychological Bulletin, 110, 2, 305-314.
Borsboom D., Mellenbergh G. J., van Heerden J. (2003), The theoretical status of latent
variables, Psychological Review, 110, 2, 203-219.
Cattell (1966), The scree test for the number of factors, Multivariate Behavioural Research, 1,
2, 245-276.
Chin W. W. (1988), Issues and opinion on structural equation modeling, MIS Quaterly, 22, 1,
7-16.
Churchill G. A. (1979), A paradigm for developing better measures of marketing constructs,
Journal of Marketing Research, 16, 1, 64-73.
Churchill Jr., G. A. (1998). Measurement in marketing: time to refocus? in J. D. Hess, K. B.
Monroe (coord.), Paul D. Converse Symposium. 14, Chicago, AMA, 25-41.
Cochoy F. (1999) Une histoire du marketing, Paris, La découverte.
19
Converse P. D. (1945), The development of the science of marketing: an exploratory survey,
Journal of Marketing, 10, 1, 14-23.
Cova B. Salle R. (2008), From scientific controversies to brand communities: welcome to a
branded world!, 24th Industrial Marketing and Purchasing Group Conference, Uppsala.
Crié D. (2005), De l’usage des modèles de mesure réflectifs ou formatifs dans les modèles
d’équations structurelles, Recherche et Applications en Marketing, 20, 2, 5-27.
Cronbach L. J. (1951), Coefficient alpha and the internal structure of tests, Pychometrika, 16,
3, 297-334.
Deshpandé R. (1983), "Paradigms Lost": on theory and method in research in marketing,
Journal of Marketing, 47, 4, 101-110.
Edwards J. R., Bagozzi R. P. (2000), On the nature and direction of relationships between
constructs and measures, Psychological Methods, 5, 2, 155-174.
Ehrenberg A. S. C. (1968), The factor analytic search for program types, Journal of
Advertising Research, 8, 1, 55-63.
Finn A., Kayandé U. (2005), How fine is C-OAR-SE ? A generalizability theory perspective
on Rossiter’s procedure, International Journal of Research in Marketing, 22, 1, 11-21.
Frank R. E., Kuehn A. A., Massy W. F. (1962), Quantitative techniques in marketing
analysis, Homewood, IL, R. D. Irwin.
Gerbing D. W., Anderson J. C. (1988), An updated paradigm for scale development
incorporating unidimensionality and its assessment, Journal of Marketing Research, 25, 2,
186-192.
Hershberger S. L. (1994), The specification of equivalent models before the collection of data,
in A. von Eye, C. C. Clogg (coord.), Latent variables analysis: applications for
developmental research, Thousand Oaks, CA, Sage Publications, 68-108.
20
Jacoby J. (1978), Consumer research: a state of the art review, Journal of Marketing, 42, 2,
87-96.
Jarvis C. B., MacKenzie S. B., Podsakoff Ph. M. (2003), A critical review of construct
indicators and measurement model misspecification in marketing and consumer research,
Journal of Consumer Research, 30, 1, 199-218.
Joreskog K. G. (1971), Statistical analysis of sets of congeneric tests, Psychometrika, 36, 2,
109–133.
Joreskog K. G., van Thillo M. (1972), LISREL: a general computer program for estimating a
linear structural equation system involving multiple indicators of unmeasured variables,
Princeton, NJ, Educational Testing Service.
Kuhn Th. S. (1962 [1983]), La structure des révolutions scientifiques, Paris, Flammarion.
Lazarsfeld P. F. (1950), The logical and mathematical foundation of latent structure analysis,
in S. A. Stoufer, L. Guttman, E. A. Suchman, P. L. Lazarsfeld, (coord.), Studies in social
psychology in World War II, 4, Princeton, NJ, Princeton University Press, 362– 412.
MacKenzie S. B. (2003), The dangers of poor construct conceptualization, Journal of the
Academy of Marketing Science, 31, 3, 323-326.
Nie N., Bent D., Hull C. H. (1970), SPSS: statistical package for the social sciences, New
York, NY, McGraw-Hill.
Nunnally J. C. (1967), Psychometric theory, New York, McGraw-Hill, 1ère édition.
Nunnally J. C. (1978), Psychometric theory, New York, McGraw-Hill, 2ème édition.
Nunnally J. C., Bernstein I. H. (1994), Psychometric theory, NY, McGraw-Hill, 3ème édition.
Olson, Jerry C. (1981), Towards a science of consumer behavior, in A. Mitchell, Advances in
Consumer Research, 9, Ann Arbor, MI, Association for Consumer Research, v-x.
Parasuraman A., Zeithaml V. A., Malhotra A. (2005), E-S-QUAL: a multiple-item scale for
assessing electronic service quality, Journal of Service Research, 7, 3, 213-233.
21
Peter J. P. (1979), Reliability: a review of psychometric basics and recent marketing practices,
Journal of Marketing Research, 16, 1, 6-17.
Peter J. P. (1982), Current issues in the philosophy of science: implications for marketing
theory, in R. F. Bush et S. D. Hunt (coord.), Marketing theory: philosophy of science
perspectives, Chicago, American Marketing Association, 11-16.
Peter J. P., Olson J. C. (1983), Is science marketing?, Journal of Marketing, 47, 4, 111-125.
Rossiter J. R. (2002), The C-OAR-SE procedure for scale development in marketing,
International Journal of Research in Marketing, 19, 305-335.
Sherry J. F. (1991), Postmodern alternatives: the interpretive turn in consumer research, in T.
S. Robertson et H. H. Kassarjian (coord.), Handbook of Consumer Behavior, Englewood
Cliffs, Prenctice Hall, 548-591.
Spearman C. (1904), General intelligence, objectively determined and measured, American
Journal of Psychology, 15, 2, 201–293
Stewart D. W. (1981), The application and misapplication of factor analysis in marketing
research, Journal of Marketing Research, 18, 1, 51-62.
Thompson C. J. (1993), Modern truth and postmodern incredulity: a hermeneutic
deconstruction of the metanarrative of “scientific truth” in marketing research, International
Journal of Research in Marketing, 10, 3, 325-338.
Trocchia Ph. J., Berkowitz D. (1999), Getting doctored: a proposed model of marketing
doctoral student socialization, European Journal of Marketing, 33, 7/8, 746-760.
Vargo S. L., Lusch R. F. (2004), Evolving to a new dominant logic for marketing, Journal of
Marketing, 68, 1, 1-17.
Wilcox J. B., Howell R. D., Breivik E. (2008), Questions about formative measurement,
Journal of Business Research, 61, 12, 1219-1228.