Z-score, percentile et p-value d'une valeur dans une loi normale.
Z = (x − μ) / σ. Probabilités calculées à partir de la fonction de répartition normale standard (approximation de la fonction erf d'Abramowitz & Stegun, précise à 10⁻⁷). Valeur p bilatérale = 2 · min(P inférieure, P supérieure) — pertinent pour les tests d'hypothèse symétriques.
Le score z est la standardisation la plus utilisée en statistiques : il transforme une observation en un nombre d'écarts types par rapport à la moyenne de la population, permettant une comparaison directe entre des distributions ayant des unités différentes. Une note de 78 dans une classe et 85 dans une autre ne sont pas comparables tant que vous ne connaissez pas la moyenne et la dispersion de la classe ; leurs scores z le sont. Un score z se connecte également directement à la distribution normale standard : 95 % des observations se situent dans ±1,96 σ ; ±3 σ marquent la règle des 99,7 %. Le contrôle qualité Six Sigma, les scores de QI, les courbes de croissance (taille/poids pédiatriques), les tests psychométriques et la plupart des tests A/B reposent sur l'arithmétique du score z. Ce calculateur calcule le score z à partir de x, μ et σ, plus le centile, les probabilités unilatérales et la valeur p bilatérale, avec une visualisation de la courbe normale ombrant la zone en dessous de l'observation.
Score Z : z = (x − μ) / σ.
x est l'observation, μ la moyenne, σ l'écart type (doit être > 0). z est sans dimension.
CDF de la normale standard Φ(z) : probabilité qu'une variable aléatoire normale standard soit ≤ z. Calculé via l'approximation erf (Abramowitz & Stegun) : erf(x) = 1 − (a₁t + a₂t² + a₃t³ + a₄t⁴ + a₅t⁵) e^(−x²), où t = 1 / (1 + p·x), avec les constantes p = 0,3275911 et les aᵢ telles que données. Φ(z) = ½(1 + erf(z / √2)). Précision à 1,5 × 10⁻⁷.
Sorties : - z : valeur standardisée. - Centile : Φ(z) × 100, le pourcentage de la population dont les valeurs sont ≤ x. - P(X ≤ x) : identique au centile / 100. - P(X > x) : 1 − Φ(z). - Valeur p bilatérale : 2 × min(Φ(z), 1 − Φ(z)) — la probabilité d'observer |z| ou plus par hasard, utile pour les tests d'hypothèse.
Bandes d'interprétation : |z| < 0,5 très typique ; 0,5–1 typique ; 1–2 notable ; 2–3 inhabituel ; > 3 extrême.
Entrez l'observation x, la moyenne de population μ, et l'écart type σ. Le panneau de résultat affiche z (principal), le centile, la valeur p bilatérale, les deux probabilités unilatérales et une interprétation verbale. Le graphique trace la courbe normale standard, ombrage la zone sous z, et marque la position z avec une ligne verticale.
Score de QI 120, μ = 100, σ = 15 (échelle de QI standard).
Note d'examen 78, μ = 70, σ = 10.
Valeur aberrante : 245, μ = 100, σ = 25.
Hypothèse de normalité. Le centile et la valeur p nécessitent que la distribution sous-jacente soit normale. Pour des données non normales (asymétriques, à queues épaisses, multimodales), les scores z sont toujours calculables mais leur interprétation probabiliste échoue. Les revenus réels, les temps de requête web et les rendements boursiers ne sont pas normaux — le score z pour "le 99ème centile des rendements" peut être beaucoup plus petit que les +2,33 que prédit le modèle normal.
σ de population vs échantillon. La formule utilise le σ de la population. Si vous avez un échantillon et avez utilisé l'écart type d'échantillon s, vous calculez en réalité une statistique t (distribution t de Student), pas un z. Pour les grands échantillons (n > 30), les deux sont quasi identiques ; pour les petits échantillons, utilisez explicitement des tables t.
Sensibilité aux valeurs aberrantes. μ et σ sont sensibles aux valeurs aberrantes — une seule valeur extrême peut faire monter μ et gonfler σ, faussant tous les scores z. Les alternatives robustes (médiane, MAD) sont moins affectées.
Limites d'approximation. L'approximation erf dans le calculateur est précise à 10⁻⁷ ; pour les probabilités de queues profondes (z > 6), utilisez des bibliothèques spécialisées (mpmath, scipy.stats.norm).
Valeur p bilatérale vs unilatérale. Bilatérale : P(|Z| ≥ |z|), utilisée lorsque l'hypothèse alternative est "différent de μ". Unilatérale : P(Z ≥ z) ou P(Z ≤ z), utilisée lorsque l'alternative est spécifiquement "supérieur à μ" ou "inférieur à μ". Le calculateur affiche les deux ; choisissez celui qui correspond à votre hypothèse.
Tests multiples. Si vous calculez des scores z sur 100 observations et demandez "y en a-t-il avec |z| > 2 ?", vous vous attendriez à environ 5 par pur hasard, même sous l'hypothèse nulle. Une correction de Bonferroni ou FDR est nécessaire pour les comparaisons multiples.
La standardisation n'est pas une transformation vers la normalité. Le zonage d'une variable non normale ne la rend pas normale ; cela la décale et la re-scale. La forme reste.
Cas limite σ = 0. Si σ = 0, le calculateur rejette (pas de variance, pas de z). Toutes les observations sont à μ.
Très grands |z|. La double précision JS déborde pour |z| > 38 ; le centile se sature à 0 % ou 100 %. Les scores z du monde réel dépassent rarement 8.
Intervalles de confiance vs scores z. Un IC de 95 % utilise z = 1,96 ; un IC de 99 % utilise z = 2,576. Ce sont des quantiles, pas des observations — le calculateur prend des observations et calcule z, pas l'inverse.