A!ex a écrit:Merci pour cette super explication
Désolé, mais je n'ai toujours pas compris
Alex ...
!!!!
Bon, c'est parti pour le récap :
Tu es en présence de deux variables et tu aimerez savoir si l'une influe sur l'autre. Pour cela tu décides de mettre en place un test. Mais avant de commencer, tu te fixes un seuil de probabilité de te tromper si tu acceptes l'hypothèse H1 qu'il existe un lien significatif entre elles. C'est ton alpha pré-test, par exemple fixé à 5%. Mais qu'est-ce cela signifie en vrai ces 5% ? Eh bien, c'est un seuil, une marge d'erreur qui te permettra par la suite d'accepter ou non H1 en fonction des résultats post-test. Tu mènes donc ton étude. Tu peux donc te retrouver dans deux cas de figure :
1) Cas 1 : au vue des résultats obtenus, la probabilité post-test trouvée est inférieure au seuil fixé a priori. Que peut-on en déduire ? Eh bien si p post-test < seuil pré-test (ici 5% = 0,05), cela signifie qu'après avoir fait le test tu peux admettre H1 avec une probabilité inférieure à 0,05 de faire une erreur. C'est-à-dire que tu as moins de 5 chances sur 100 te tromper en acceptant H1. Du coup, tu ne réfléchis plus, tu acceptes H1 parce que tu sais qu'il y a de faibles chances pour que tu commettes une erreur.
2) Cas 2 : au vue des résultats obtenus, la probabilité post-test trouvée est supérieure au seuil fixé a priori. Que peut-on en déduire ? Eh bien si p post-test > seuil pré-test (ici 5% = 0,05), cela signifie qu'après avoir fait le test tu peux admettre H1 avec un risque de te tromper en faisant cela supérieur à ce que tu as initialement prévu. Du coup, ça te tente pas trop d'accepter H1 parce que tu te rends compte que tu as de fortes chances de commettre une erreur en faisant cela. Donc tu rejettes H1 et tu admets H0.
Pourvu qu'Alex ait enfin compris