letzte Aufgabe die mir heute noch den Kopf zerbrickt, danke für vorhin Hippie:
Intelligenztests sind idR so konstruiert, dass die IQ-Punkte angenähert einer Normalverteilung folgen. Bei einem bestimmten Test sind die Parameter µ = 100 und σ² = 100. Wie groß ist die Wahrscheinlichkeit, dass jemand einen IQ hat, der größer als 97 und kleiner als 101 ist? (dimensionslos, auf 4 Dezimalstellen)
Danke, wäre dankbar wenn jemand ne Ahnung hätte
Lesezeichen