1. 표준 편차 σ
ㅇ 평균에서, 어느만큼 떨어져 있는지를 알 수 있는 산포의 척도 ☞ 편차(Deviation) 참조
- 자료들이,
. 평균과 얼마나 차이가 나는지, 평균을 중심으로 얼마나 밀집되어 있는지를 알려줌
- 즉, 자료들은,
. 표준 편차가 작을수록, 평균값 주변에 몰려 있게되고,
. 표준 편차가 클수록, 평균값에서 떨어져 있게됨
- 결국, 평균에서 떨어진 수 만큼을 평균화시킨 수치 ☞ 아래 2.항 계산식 정의 참조
※ Karl Pearson (영국의 수리통계학자, 1857~1936)에 의해 1893년 처음으로 소개된 통계량
- 정규분포를 따르는 자료의 중간값 오차인 확률 오차(Probable Error)에 대한 대안으로 제시
2. 표준 편차 σ의 계산식
ㅇ 편차의 `제곱`에 `평균`을 취하고 이를 `제곱근`한 값 ☞ Variability (산포, 변동성) 참조
- 달리말하면, 편차의 실효값 (rms, 제곱 평균 제곱근) 이라고도 볼 수 있음
ㅇ 표준 편차 = (편차의 실효값) = (분산)1/2
- 즉, 분산 (σ2)에 대해서는, 양(量)의 제곱근을 취한 값 (σ)
3. 표준편차 ±σ 범위의 의미 (정규분포 가정)
ㅇ 대략,
- 평균에서 ±1σ 범위 내 전체의 68.3% 가 존재 : P(μ-1σ < X̅ < μ+1σ) = 0.6826
. 평균에서 ±1σ (±1.96σ) 범위 내에 전체의 약 70% 정도가 포함됨
- 평균에서 ±2σ 범위 내 전체의 95.5% 가 존재 : P(μ-2σ < X̅ < μ+2σ) = 0.9544
. 평균에서 ±2σ (±2.58σ) 범위 내에 전체의 약 95% 정도가 포함됨
. 평균에서 ±2σ (±2.58σ) 범위 밖에 전체의 약 5% 정도 만이 포함됨
- 평균에서 ±3σ 범위 내 전체의 99.7% 가 존재 : P(μ-3σ < X̅ < μ+3σ) = 0.9974
* (평균 ± n x 표준편차) 범위 내 면적이, 그 만큼의 확률을 설명함
ㅇ 일반적으로,
- 평균으로부터 kσ 이상 떨어진 데이터는 전체의 1/k2 비율 밖에 없음
. ☞ 체비셰프 부등식 참조
4. 표준편차 σ 및 분산 σ2 공식
ㅇ 모 표준편차(population standard deviation), 표본 표준편차(sample s.d)
- 모 표준편차 : [# σ = \sqrt{\frac{\sum\limits^N_{i=1}{(x_i-μ)^2}}{N}} #]
- 표본 표준편차 : [# s = \sqrt{\frac{\sum\limits^n_{i=1}{(x_i-\overline{x})^2}}{n-1}} #]
ㅇ 모 분산(population variance), 표본 분산(sample variance)
- 모 분산 : [# σ^2 = \frac{\sum\limits^N_{i=1}{(x_i-μ)^2}}{N} #]
- 표본 분산 : [# s^2 = \frac{\sum\limits^n_{i=1}{(x_i-\overline{x})^2}}{n-1} #]
※ (N : 모집단 개수, {#μ#} : 모 평균, n : 표본 개수, {#\overline{x}#} : 표본 평균