par Tryptophrane » 28 Fév 2026, 20:48
Salut !
Alors en fait si t'as un risque alpha élevé (genre 5% et pas 1%), ça veut dire que notre moyenne vraie a 95% de chances de se trouver dans notre IC.
En revanche, si t'as un risque alpha faible (1%), ça veut dire que notre moyenne vraie a 99% de chances de se trouver dans notre IC.
Donc là tu te dis, ok alors pourquoi on ne privilégierait pas un risque alpha à 1% pour avoir plus de chances que notre moyenne vraie soit dans l'intervalle ? En fait si t'as un IC large, t'auras certes plus de chances de tomber sur la moyenne vraie inconnue MAIS tu perds en précision car l'IC englobe beaucoup de valeurs donc forcément t'as plus de chances que la moyenne vraie soit dedans, mais "tu te mouilles pas trop" !
Alors que si tu privilégie un IC à 95% (plus resserré) donc un risque alpha à 5%, t'as un risque plus élevé de rater la bonne estimation certes MAIS tu gagnes en précision tout de même car tu te rapproches dangereusement de la moyenne vraie. Vois un IC large comme "la solution facile".
Exemple concret : on te dit que la moyenne d'âge d'un groupe d'amis est situé dans l'intervalle [30 ; 34] --> imagine que ça correspond à un IC 95% resserré.
Mais se serait pas faux de dire que la moyenne d'âge est situé dans un intervalle beaucoup plus large et donc moins précis tel que [23 ; 37] !
Et pour ton autre question, oui l'indice de précision est lié au risque alpha puisqu'il fait intervenir l'écart-réduit qui DEPEND ++ du risque alpha !
Conclusion de ce que tu dois retenir ++ : un risque alpha élevé permet un IC plus resserré et donc d'augmenter ta précision, d'où le fait qu'on privilégiera toujours un risque alpha à 5% si l'énoncé ne te le précise pas !
Je te conseille d'aller regarder mes schémas dans le cours complet pour comprendre ce mécanisme.
Bon courage et n'hésite pas à me relancer si c'est pas clair !!