Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog

Ce site...

    

GMichael

George A. MICHAEL
Docteur en Neuropsychologie
Professeur des Universités
Université Lyon 2
Dpt. Psychologie Cognitive & Neuropsychologie

E-mail: george.michael@univ-lyon2.fr


     ALLER AU CONTENU

 


11 juillet 2005 1 11 /07 /juillet /2005 00:00

3. Cas unique vs. un seul sujet contrôle

(A) Une seule condition et variable dichotomique
Il arrive parfois de vouloir effectuer des analyses statistiques sur les variables qui ne peuvent être que dichotomiques, c’est-à-dire, qui ne comportent que deux catégories de réponses mutuellement exclusives. C’est le cas par exemple des bonnes ou mauvaises réponses, droite ou gauche, animal ou artefact etc. Lorsque nous désirons comparer deux individus (patient versus contrôle ; patient A versus patient B), nous nous trouvons face à un problème majeur. Les scores obtenus dans ces test sont au nombre de 2 par individu, chacun correspondant à chacune des modalités de la variable testée. Par exemple, dans un test de catégorisation d’images d’objets, le sujet peut avoir 25 bonnes réponses sur 75. Nous n’avons donc pas d’indice de variation (écart-type), sauf dans le cas où le sujet participe plusieurs fois au même test. Nous disposons de quelques tests permettant de comparer deux scores.


(a) Comparaison de deux pourcentages :
Supposons que, dans un test de mémoire (50 essais), le cas Greg a obtenu 36 bonnes réponses, et le cas Elma 48 bonnes réponses. Le pourcentage de réussite est donc de 72% et de 96%, respectivement. La question qui se pose est, naturellement, la suivante : est-ce que les performances du cas Greg sont inférieures à celles du cas Elma, ou s’agit-il d’un artefact ? Pour pouvoir répondre à cette question, nous devons transformer la différence des pourcentages en score z. La formule est la suivante:
 

FORMULE:


 



Les valeurs x1 et x2 représentent, respectivement, les pourcentages obtenus par les deux sujets. N1 et N2 représentent le nombre total d’essais présentés à chaque individu. Ainsi
(a) x1-x2= 72 - 96 = -24 (donc, la valeur absolue est 24)
(b) la racine de [(72*28)/50] + [(96*4)/50] est égale à 6,93
(c) z= 24/6,93 = 3,46.

Dans cet exemple, le score z égal à 3,46. La table de la loi normale nous renseigne que ce score représente une probabilité inférieure à 0,001, c’est-à-dire, nous avons seulement 1 chance sur 1000 de nous tromper si nous concluons que le cas Greg obtient des scores équivalents à ceux du cas Elma. Nous pouvons donc conclure que le cas Greg obtient des scores plus faibles par rapport au cas Elma. Afin d’appliquer ce test, il est nécessaire d’avoir un nombre d’essais conséquent par condition (>30).


(b) Comparaison de deux proportions : le test du Risque Absolu (RA)
Le test présenté ci-dessus concerne la comparaison de deux pourcentages obtenus par deux individus différents. Il arrive de vouloir comparer non pas des pourcentages, mais des proportions. Le risque absolu (RA) est un test qui nous permet d’effectuer ce type de comparaisons. Ainsi, nous allons noter p1 la probabilité que le sujet donne une réponse (x) de type 1 (e.g., bonnes réponses) par rapport au nombre total d’essais présentés (N). Ainsi, p=x/N.

La comparaison des probabilités de deux individus par une simple soustraction, représente le RA. Le calcul subséquent de l’intervalle de confiance à 95% du RA nous permettra de déterminer si les scores de deux individus sont différents. Nous procédons ainsi de la façon suivante :
(i) calculer le p de chaque individu : p1=x/N1 et p2=y/N2, respectivement;
(ii) calculer le RA: p1-p2;
(iii) calculer l’intervalle de confiance à 95%= :
 

FORMULE:


 



Dans les calculs précédents, x représente le score de réponses de type 1 (e.g., bonnes réponses, etc…) du sujet 1, et y représente le score équivalent du sujet 2; N1 et N2 représentent, respectivement, le nombre d’essais présentés au sujet 1 et au sujet 2.


Décision :
(i) Si l’'intervalle de confiance (IC0.05) est entièrement positif (e.g., IC= +0,01 .. +1,95), alors le score obtenu par le sujet 1 est supérieur au score obtenu par le sujet 2.
(ii) Inversement, si le IC est entièrement négatif (e.g., IC= -0,45 .. -0,95), alors le score du sujet 2 est supérieur au score du sujet 1.
(iii) Enfin, si le IC inclut la veleur 0 (e.g., IC= -1,67 .. +0,13), alors nous ne pouvons pas conclure que les deux sujets obtiennent des scores différents.

Exemple : Dans un test de mémoire, le cas Greg a donné 36 bonnes et 14 mauvaises réponses (donc, N1=50), et le cas Elma a donné 48 bonnes et 2 mauvaises réponses (donc, N2=50). Effectuons les calculs mentionnés ci-dessus :
(i) p Greg=0,72 ; p Elma : 0,96
(ii) RA = 0,72 - 0,96 = -0,24
(iii) IC0.05= -0,376 .. –0,104

L’intervalle de confiance est entièrement négatif, ce qui nous permet de conclure que le cas Elma a obtenu un score significativement supérieur à celui du cas Greg.

Ce test comporte un énorme avantage : il nous renseigne non pas seulement sur l’existence d’une éventuelle différence entre les scores de deux individus, mais nous dit également si c’est le sujet 1 ou le sujet 2 qui a obtenu un score meilleur.

NOTE :Si vous désirez recevoir gratuitement une feuille Exel vous permettant d'effectuer facilement le test du RA, n'hésitez pas à me le demander par couriel (george.michael@univ-lyon2.fr). Cette feuille vous donne l'IC à 91%, 92%, 93%, 94%, 95%, 99%, 99.5% et 99.9% (donc, pour p=0.09, p=0.08, p=0.07, p=0.06, p=0.05, p=0.01, p=0.005 et p=0.001).


(c) Comparaison de deux proportions : le test z de la différence des proportions indépendantes
Ce test utilise des calculs similaires à ceux utilisés lors du test du RA afin de dériver un score z, plus fréquemment rencontré dans la littérature. Cependant, ces résultats sont strictement similaires à ceux du RA. La seule différence est qu’il permet d’obtenir un p très précis et, si l’on désire, unilatéral, contrairement au RA où les limites doivent être fixées d’avance.

Le principe du test est simple, il s’agit de diviser la différence entre deux proportions (que nous avons précédemment appelée RA) par la formule qui permet d’obtenir l’erreur-type de cette différence:
 

FORMULE:


 



Exemple : Dans un test de mémoire, le cas Greg a donné 36 bonnes et 14 mauvaises réponses (donc, N1=50), et le cas Elma a donné 48 bonnes et 2 mauvaises réponses (donc, N2=50). Effectuons les calculs mentionnés ci-dessus :
(a) p Greg=0,72 ; p Elma : 0,96
(b) RA = 0,72 - 0,96 = -0,24
(c) z= -3,46 donc p<0,001


(d) Comparaison de deux scores bruts : le "test simple" de Pocock(2006)
Stuart Pocock (2006) a récemment proposé le « test simple » qui peut être utilisé lors de la comparaison du score brut (variable dichotomique) obtenu par deux individus. Il y a cependant une seule exception qui est d’importance centrale : il est impératif que le nombre d’essais présentés aux deux individus soit strictement identique.

Le « test simple » est un score z qui suit la loi normale et qui dérive de la formule qui suit et où x et y représentent, respectivement, le score brut obtenu par les deux individus :
 

FORMULE:


 



Exemple : Dans un test de mémoire, le cas Greg a donné 36 bonnes et 14 mauvaises réponses (donc, N=50), et le cas Elma a donné 48 bonnes et 2 mauvaises réponses (donc, N=50). Le nombre d’essais présentés à chaque individu étant le même, nous pouvons utiliser le « test simple ». Le score z est égal à -1,3. Lorsqu’'on regarde la table de la loi normale, nous constatons que le p bilatéral est >0,19, et donc l’unilatéral est <0,096. Si l’hypothèse émise est unilatérale, nous pouvons conclure que le cas Elma obtient des scores limite significativement supérieurs aux scores du cas Greg.

Nous pouvons constater que lorsque les mêmes scores sont comparés à l’aide du test du RA et à l’aide du « test simple » nous n’obtenons pas les mêmes résultats. Ceci montre que le « test simple » est bien plus robuste que le RA. L’origine de cette différence est que, même si dans les deux cas nous utilisons les scores bruts obtenus par les individus, le « test simple » porte réellement sur les scores bruts alors que le test du RA porte sur les probabilités conditionnelles (par exemple, le nombre de bonnes réponses sur le nombre total d’essais).


(B) Plans complexes avec variables numériques
Les conditions d’utilisation de cette méthode ont été décrites dans la partie « Aspects Méthodologiques ». Rappelons simplement que cette méthode doit être utilisée en cas de plan expérimental complexe mettant en jeu des facteurs multiples, ce qui rend l’analyse par les méthodes précédemment décrites impossible. Par ailleurs, cette méthode s’applique lorsque le sujet reçoit plusieurs essais (en général >20) et lorsque chaque essai donne un score différent des autres. Un texte qui défend l’utilisation des essais comme variable aléatoire est présenté en complément. Nous n’entrerons pas dans les détails statistiques ici. Les tests utilisés sont les mêmes que ceux utilisés dans les comparaisons de groupes. La seule différence est que nous menons les analyses avec les essais comme variable aléatoire, et nous comparons le cas étudié à un sujet contrôle.


RÉFÉRENCES
- Altman D., Machin D., Bryant T. & Gardner M., Statistics with confidence (2nd edition), Bristol, BMJ Books, 2000.
- Motulsky H., Intuitive biostatistics, Oxford, Oxford University Press, 1995.
- Newcombe R., Improved confidence intervals for the difference between binomial proportions based on paired data, Statistics in Medicine, 17 : 1635-2650, 1998.
- Pocock S., The simplest statistical test : how to check for a difference between treatments, British Journal of Medicine, 332 : 1256-1258, 2006.
- Schechtman E., Odds ratio, relative risk, absolute risk reduction, and the number needed to treat – Which of these should we use ?, Value in Health, 5: 431-436, 2002.
- Swinscow T.D.V. & Campbell M.J., Statistics at square one (10th edition), Navarra, BMJ Books, 2002.





Partager cet article
Repost0

commentaires