Z-Wert, Perzentil und p-Wert für einen Wert in einer Normalverteilung.
Z = (x − μ) / σ. Wahrscheinlichkeiten berechnet aus der Standardnormalverteilungs-CDF (Abramowitz & Stegun erf-Approximation, genau bis auf 10⁻⁷). Zweiseitiger p-Wert = 2 · min(P unten, P oben) — relevant für symmetrische Hypothesentests.
Der Z-Wert ist die am häufigsten verwendete Standardisierung in der Statistik: Er transformiert eine Beobachtung in die Anzahl der Standardabweichungen vom Populationsmittelwert und ermöglicht so einen direkten Vergleich zwischen Verteilungen mit unterschiedlichen Einheiten. Eine Note von 78 in einem Kurs und 85 in einem anderen sind nicht vergleichbar, bis man den Mittelwert und die Streuung des Kurses kennt; ihre Z-Werte sind es. Ein Z-Wert hängt auch direkt mit der Standardnormalverteilung zusammen: 95 % der Beobachtungen liegen innerhalb von ±1,96 σ; ±3 σ kennzeichnen die 99,7 %-Regel. Six-Sigma-Qualitätskontrolle, IQ-Werte, Wachstumstabellen (Größe/Gewicht von Kindern), psychometrische Tests und die meisten A/B-Tests basieren auf der Z-Wert-Arithmetik. Dieser Rechner berechnet den Z-Wert aus x, μ und σ sowie den Perzentilwert, die einseitigen Wahrscheinlichkeiten und den zweiseitigen p-Wert, mit einer Visualisierung der Normalverteilungskurve, die den Bereich unterhalb der Beobachtung einfärbt.
Z-Wert: z = (x − μ) / σ.
x ist die Beobachtung, μ der Mittelwert, σ die Standardabweichung (muss > 0 sein). z ist dimensionslos.
CDF der Standardnormalverteilung Φ(z): Wahrscheinlichkeit, dass eine standardnormalverteilte Zufallsvariable ≤ z ist. Berechnet über die erf-Approximation (Abramowitz & Stegun): erf(x) = 1 − (a₁t + a₂t² + a₃t³ + a₄t⁴ + a₅t⁵) e^(−x²), wobei t = 1 / (1 + p·x), mit den Konstanten p = 0,3275911 und aᵢ wie angegeben. Φ(z) = ½(1 + erf(z / √2)). Genauigkeit bis 1,5 × 10⁻⁷.
Ausgaben: - z: standardisierter Wert. - Perzentil: Φ(z) × 100, der Prozentsatz der Population mit Werten ≤ x. - P(X ≤ x): dasselbe wie Perzentil / 100. - P(X > x): 1 − Φ(z). - Zweiseitiger p-Wert: 2 × min(Φ(z), 1 − Φ(z)) — die Wahrscheinlichkeit, |z| oder größer durch Zufall zu beobachten, nützlich für Hypothesentests.
Interpretationsbänder: |z| < 0,5 sehr typisch; 0,5–1 typisch; 1–2 bemerkenswert; 2–3 ungewöhnlich; > 3 extrem.
Geben Sie die Beobachtung x, den Populationsmittelwert μ und die Standardabweichung σ ein. Das Ergebnis-Panel zeigt z (Überschrift), Perzentil, zweiseitigen p-Wert, beide einseitigen Wahrscheinlichkeiten und eine verbale Interpretation an. Die Grafik zeichnet die Standardnormalverteilungskurve, schattiert den Bereich unter z und markiert die z-Position mit einer vertikalen Linie.
IQ-Wert 120, μ = 100, σ = 15 (Standard-IQ-Skalierung).
Eine Prüfungsnote 78, μ = 70, σ = 10.
Ausreißer: 245, μ = 100, σ = 25.
Normalitätsannahme. Das Perzentil und der p-Wert erfordern, dass die zugrundeliegende Verteilung normal ist. Für nicht-normale Daten (schief, heavy-tailed, multimodal) sind Z-Werte immer noch berechenbar, aber ihre probabilistische Interpretation bricht zusammen. Reale Einkommen, Web-Request-Zeiten und Aktienrenditen sind nicht normal — der Z-Wert für "das 99. Perzentil der Renditen" kann viel kleiner sein als die +2,33, die das Normalmodell vorhersagt.
Populations- vs. Stichproben-σ. Die Formel verwendet die Populations-σ. Wenn Sie eine Stichprobe haben und die Stichprobenstandardabweichung s verwendet haben, berechnen Sie eigentlich eine t-Statistik (Student's t-Verteilung), keinen z-Wert. Für große Stichproben (n > 30) sind die beiden nahezu identisch; für kleine Stichproben verwenden Sie explizit t-Tabellen.
Ausreißerempfindlichkeit. Sowohl μ als auch σ sind empfindlich gegenüber Ausreißern — ein einzelner extremer Wert kann μ verzerren und σ aufblähen, was alle Z-Werte verzerrt. Robuste Alternativen (Median, MAD) sind weniger betroffen.
Approximationsgrenzen. Die erf-Approximation im Rechner ist bis auf 10⁻⁷ genau; für Wahrscheinlichkeiten im tiefen Schwanz (z > 6) verwenden Sie spezialisierte Bibliotheken (mpmath, scipy.stats.norm).
Zweiseitiger vs. einseitiger p-Wert. Zweiseitig: P(|Z| ≥ |z|), verwendet, wenn die Nullhypothese „ungleich μ“ lautet. Einseitig: P(Z ≥ z) oder P(Z ≤ z), verwendet, wenn die Alternative spezifisch „größer als μ“ oder „kleiner als μ“ ist. Der Rechner zeigt beide an; wählen Sie diejenige, die zu Ihrer Hypothese passt.
Mehrfachtests. Wenn Sie Z-Werte für 100 Beobachtungen berechnen und fragen: „Gibt es welche mit |z| > 2?“, würden Sie unter der Nullhypothese allein etwa 5 durch Zufall erwarten. Für Mehrfachvergleiche ist eine Bonferroni- oder FDR-Korrektur erforderlich.
Standardisierung ist keine Transformation zur Normalverteilung. Das Z-Scoring einer nicht-normalen Variablen macht sie nicht normal; es verschiebt und skaliert nur. Die Form bleibt erhalten.
σ = 0 Sonderfall. Wenn σ = 0, lehnt der Rechner ab (keine Varianz, kein z). Alle Beobachtungen sind bei μ.
Sehr große |z|. Die doppelte Genauigkeit von JS hat für |z| > 38 einen Überlauf; das Perzentil sättigt bei 0 % oder 100 %. Z-Werte in der realen Welt überschreiten selten 8.
Konfidenzintervalle vs. Z-Werte. Ein 95 % KI verwendet z = 1,96; ein 99 % KI verwendet z = 2,576. Dies sind Quantile, keine Beobachtungen — der Rechner nimmt Beobachtungen und berechnet z, nicht umgekehrt.