일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- GAN
- 메타러닝
- 설명가능한
- 인공지능
- 딥러닝
- 코딩 테스트
- 백준
- Deep learning
- Score-CAM
- Artificial Intelligence
- grad-cam
- Unsupervised learning
- Explainable AI
- Cam
- xai
- Interpretability
- coding test
- SmoothGrad
- Machine Learning
- python
- 머신러닝
- Class activation map
- 코딩테스트
- AI
- cs231n
- 기계학습
- meta-learning
- keras
- 설명가능한 인공지능
- 시계열 분석
- Today
- Total
iMTE
2. Stationary time series (Stationarity) 본문
2. Stationary time series (Stationarity)
Wonju Seo 2021. 6. 22. 10:18보통 시계열분석에서 stationary 시계열을 다루며, non-stationary 시계열은 여러 변환 (예, differentiation) 들을 통해서 정상적인 시계열으로 바꾼 이후에 분석을 한다.
1) 강정상성, strong stationary
($Z_1,...,Z_m$)과 ($Z_{1+k},...,Z_{m+k}$) ($k>1$)이 동일한 결합확률분포를 가질 때 strong stationry 시계열이라고 한다.
2) 위의 조건을 만족할 경우 다음 성질을 갖는다.
(1) $E[Z_t]=\mu, t\geq 1$
(2) $Var[Z_t]=\sigma^2=\gamma (0), t\geq 1$
(3)
$Cov[Z_t,Z_{t-k}]=Cov[Z_{t+k},Z_t]=\gamma (k), t\geq 1$ (자기공분산)
$Corr[Z_t,Z_{t-k}]=Corr[Z_{t+k},Z_t]=\gamma (k)/\gamma (0)=\rho(k), t\geq 1$ (자기상관계수)
(3)의 경우, 자기공분산과 자기상관계수가 시간 간격 (time lag) k에만 의존함을 의미한다.
시계열 분석에서 주로 특정 형태를 가진 시계열을 다루게 되는데 autoregressive process와 moving average process이다. 이 두가지 형태를 구분하기 위해서 자기상관함수와 편자기상관함수를 사용하게 된다.
먼저, 자기상관함수 (autocorrelation function: ACF)는 자기공분산함수 (autocovariance function)으로 부터 구할 수 있다. 정상적 시계열 {$Z_t,t\geq 0$}에 대하여 time lag k에 대한 자기공분산은 다음과 같으며, $Z_t$가 정상성을 따르기때문에, 시점 t에 대해서 무관하다. 또한, $E[Z_t]=E[Z_{t-k}]=0$이라고 가정하였다.
$\gamma (k) = Cov[Z_t,Z_{t-k}]=E[Z_tZ_{t-k}], k=1,2,...$
$\gamma$ 가 k의 함수이므로 이를 자기공분산 함수라고 부르고, $\gamma (k)=\gamma(-k)$가 성립한다 (정상성을 만족하면 갖는 성질 (3)을 참고하자.) 만약 k=0일 때는, 분산이 된다.
$\gamma (0) = Var[Z_t]=E[Z_t^2]$
자기공분산함수를 구했기 때문에, 자기상관함수는 다음과 같이 정의된다.
$\rho (k) = Corr[Z_t,Z_{t-k}]=\frac{Cov[Z_t,Z_{t-k}]}{\sqrt{Var[Z_t]Var[Z_{t-k}}]}=\frac{\gamma (k)}{\gamma (0)}, k=1,2,...$
다음으로, 편자기상관함수 (partial autocorrelation function: PACF)를 정의하자. 시차 k가 있는 두 값 $Z_t$와 $Z_{t-k}$의 상관계수의 대부분이 이 두 사이의 값들 (예, $Z_{t-1},...Z_{t-k+1}$)에 기인할 수 있기 때문에, 이 사이의 값들의 영향을 무시하고 $Z_t$와 $Z_{t-k}$만의 상관계수를 편자기상관계수 (partial autocorrelation)이라 한다.
$P(k) = Corr[Z_{t},Z_{t-k}|Z_{t-1},...,Z_{t-k+1}], k=1,2,...$
위 식은 k에 대한 함수이고, 시차 k=1에 대해서 다음을 만족한다.
$P(1)=Corr[Z_{t},Z_{t=1}]=\rho (1)$
여기서 중요한게, 만약 $Z_t=\phi_{k1} Z_{t-1}+...+\phi_{kk}Z_{t-k}+b_t, k=1,2,...$이라 할때 (여기서 $b_t$는 white noise라고 가정한다), 시점 k의 편자기상관계수는 $\phi_{kk}$와 동일하다.
시계열 데이터는 두가지 방식으로 표현이 가능하다.
(1) 시점 t의 값을 과거의 시점 값들을 이용해서 회귀식으로 표현하는 방식 : 자기회귀과정 (AR)
(2) 시점 t의 값을 현재와 과거 시점들의 오차항으로 표현하는 방식 : 이동평균과정 (MA)
AR 경우 다음과 같이 표현된다.
$Z_{t}=\phi_1 Z_{t-1}+\phi_2 Z_{t-2}+...+a_t$
위 식에서 $\phi$는 정상성을 만족하는 상수이고, a_t$는 시점 t에 추가되는 오차항으로, 과거 시점의 오차항과 독립이나 동일한 분포를 갖는다 (이 특징이 매우 중요하다.) 과거 시점의 시계열 값들을 후향 연산자로 나타내면 다음과 같다.
$Z_{t-1}=BZ_t$, $Z_t=(\phi_1 B+\phi_2 B^2+...)Z_t+a_t$
MA 경우 다음과 같이 표현된다.
$Z_t=\alpha_t-\psi_1 a_{t-1}-\psi_2 a_{t-2}-... =(1-\psi_1 B-\psi_2 B^2-...)a_t$
위 식에서 $\psi$ 는 정상성을 만족시키는 상수이다.
'Time-series Forecasting > Prediction' 카테고리의 다른 글
4. Time series model identification and estimation (0) | 2021.06.22 |
---|---|
3. ARMA model (0) | 2021.06.22 |
1. Smoothing method (Evaluation metrics) (0) | 2021.06.22 |
1. Smoothing method (exponential smoothing) (0) | 2020.01.01 |
1. Smoothing method (moving average) (0) | 2020.01.01 |