일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- coding test
- meta-learning
- Interpretability
- GAN
- Cam
- 설명가능한
- Artificial Intelligence
- 머신러닝
- 딥러닝
- 백준
- SmoothGrad
- xai
- Machine Learning
- 코딩테스트
- AI
- Unsupervised learning
- keras
- Class activation map
- Explainable AI
- Deep learning
- 시계열 분석
- 코딩 테스트
- cs231n
- grad-cam
- Score-CAM
- 기계학습
- 메타러닝
- 설명가능한 인공지능
- python
- 인공지능
- Today
- Total
iMTE
2. Stationary time series (Stationarity) 본문
2. Stationary time series (Stationarity)
Wonju Seo 2021. 6. 22. 10:18보통 시계열분석에서 stationary 시계열을 다루며, non-stationary 시계열은 여러 변환 (예, differentiation) 들을 통해서 정상적인 시계열으로 바꾼 이후에 분석을 한다.
1) 강정상성, strong stationary
(Z1,...,Zm)과 (Z1+k,...,Zm+k) (k>1)이 동일한 결합확률분포를 가질 때 strong stationry 시계열이라고 한다.
2) 위의 조건을 만족할 경우 다음 성질을 갖는다.
(1) E[Zt]=μ,t≥1
(2) Var[Zt]=σ2=γ(0),t≥1
(3)
Cov[Zt,Zt−k]=Cov[Zt+k,Zt]=γ(k),t≥1 (자기공분산)
Corr[Zt,Zt−k]=Corr[Zt+k,Zt]=γ(k)/γ(0)=ρ(k),t≥1 (자기상관계수)
(3)의 경우, 자기공분산과 자기상관계수가 시간 간격 (time lag) k에만 의존함을 의미한다.
시계열 분석에서 주로 특정 형태를 가진 시계열을 다루게 되는데 autoregressive process와 moving average process이다. 이 두가지 형태를 구분하기 위해서 자기상관함수와 편자기상관함수를 사용하게 된다.
먼저, 자기상관함수 (autocorrelation function: ACF)는 자기공분산함수 (autocovariance function)으로 부터 구할 수 있다. 정상적 시계열 {Zt,t≥0}에 대하여 time lag k에 대한 자기공분산은 다음과 같으며, Zt가 정상성을 따르기때문에, 시점 t에 대해서 무관하다. 또한, E[Zt]=E[Zt−k]=0이라고 가정하였다.
γ(k)=Cov[Zt,Zt−k]=E[ZtZt−k],k=1,2,...
γ 가 k의 함수이므로 이를 자기공분산 함수라고 부르고, γ(k)=γ(−k)가 성립한다 (정상성을 만족하면 갖는 성질 (3)을 참고하자.) 만약 k=0일 때는, 분산이 된다.
γ(0)=Var[Zt]=E[Z2t]
자기공분산함수를 구했기 때문에, 자기상관함수는 다음과 같이 정의된다.
ρ(k)=Corr[Zt,Zt−k]=Cov[Zt,Zt−k]√Var[Zt]Var[Zt−k]=γ(k)γ(0),k=1,2,...
다음으로, 편자기상관함수 (partial autocorrelation function: PACF)를 정의하자. 시차 k가 있는 두 값 Zt와 Zt−k의 상관계수의 대부분이 이 두 사이의 값들 (예, Zt−1,...Zt−k+1)에 기인할 수 있기 때문에, 이 사이의 값들의 영향을 무시하고 Zt와 Zt−k만의 상관계수를 편자기상관계수 (partial autocorrelation)이라 한다.
P(k)=Corr[Zt,Zt−k|Zt−1,...,Zt−k+1],k=1,2,...
위 식은 k에 대한 함수이고, 시차 k=1에 대해서 다음을 만족한다.
P(1)=Corr[Zt,Zt=1]=ρ(1)
여기서 중요한게, 만약 Zt=ϕk1Zt−1+...+ϕkkZt−k+bt,k=1,2,...이라 할때 (여기서 bt는 white noise라고 가정한다), 시점 k의 편자기상관계수는 ϕkk와 동일하다.
시계열 데이터는 두가지 방식으로 표현이 가능하다.
(1) 시점 t의 값을 과거의 시점 값들을 이용해서 회귀식으로 표현하는 방식 : 자기회귀과정 (AR)
(2) 시점 t의 값을 현재와 과거 시점들의 오차항으로 표현하는 방식 : 이동평균과정 (MA)
AR 경우 다음과 같이 표현된다.
Zt=ϕ1Zt−1+ϕ2Zt−2+...+at
위 식에서 ϕ는 정상성을 만족하는 상수이고, a_t$는 시점 t에 추가되는 오차항으로, 과거 시점의 오차항과 독립이나 동일한 분포를 갖는다 (이 특징이 매우 중요하다.) 과거 시점의 시계열 값들을 후향 연산자로 나타내면 다음과 같다.
Zt−1=BZt, Zt=(ϕ1B+ϕ2B2+...)Zt+at
MA 경우 다음과 같이 표현된다.
Zt=αt−ψ1at−1−ψ2at−2−...=(1−ψ1B−ψ2B2−...)at
위 식에서 ψ 는 정상성을 만족시키는 상수이다.
'Time-series Forecasting > Prediction' 카테고리의 다른 글
4. Time series model identification and estimation (0) | 2021.06.22 |
---|---|
3. ARMA model (0) | 2021.06.22 |
1. Smoothing method (Evaluation metrics) (0) | 2021.06.22 |
1. Smoothing method (exponential smoothing) (0) | 2020.01.01 |
1. Smoothing method (moving average) (0) | 2020.01.01 |