일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- Score-CAM
- xai
- Artificial Intelligence
- Explainable AI
- 코딩 테스트
- 백준
- 설명가능한 인공지능
- AI
- keras
- SmoothGrad
- meta-learning
- 머신러닝
- 기계학습
- 코딩테스트
- 설명가능한
- grad-cam
- 딥러닝
- cs231n
- python
- 메타러닝
- Machine Learning
- 인공지능
- Interpretability
- Class activation map
- Cam
- 시계열 분석
- coding test
- Deep learning
- Unsupervised learning
- GAN
- Today
- Total
iMTE
3. ARMA model 본문
이전 포스팅에서 정상성 시계열은 AR과 MA로 나타낼 수 있음을 설명하였다. 이번 포스팅에는 AR, MA 모형을 각각 설명하고 이 두개가 합친 ARMA 모형에 대해서 소개하고자한다.
먼저, AR의 기본적인 형태는 다음과 같다.
Zt=ϕ1Zt−1+at
위 식에서 ϕ는 정상성 조건을 만족시키며, at는 평균이 0, 분산이 σ2을 갖는 white noise 이다. 위 식은 시차 1의 과거 값에 영향을 받음으로, AR(1) 모형이라고 부른다. 만약 시차 p인 AR(p) 모형은 다음과 같이 표현된다.
Zt=ϕ1Zt−1+ϕ2Zt−2+...+ϕpZt−p+at
위 식에서 ϕ는 정상성 조건을 만족시킨다.
간단하게, AR(1) 모형의 계수 ϕ를 구하는 방법에 대해서 알아보자. 먼저, Zt=ϕ1Zt−1+at에서 AR(1)의 자기공분산 함수를 구하면 다음과 같다.
γ(k)=ϕk1γ(0), (γ(0)=ϕγ(1) 이고, at는 과거 시점와 아무런 상관이 없다는 사실을 기억하자.)
그리고, Zt의 분산 γ(0)을 다음과 같이 분산을 취해서 구해보면, 다음과 같다.
Var[Zt]=ϕ21Var[Zt−1]+Var[at]+2ϕ1Cov[Zt−1,at]
위 식에서 맨 오른쪽 항은 0이 되고 (현재 white noise는 과거 시점과 아무런 상관이 없다.) 정상성 조건하에 분산은 일정함으로, 다음이 성립된다.
γ(0)=ϕ21γ(0)+σ2
따라서, Zt의 분산은 γ(0)=σ21−ϕ21 이 된다. 이 식에서 분산은 0보다 커야하고, 자기공분산 함수가 유한해야 함으로, |ϕ1|<1을 만족해야 한다. AR(1) 모형의 ACF는 다음과 같이 구할 수 있다.
ρ(k)=γ(k)γ(0)=ϕk1,k=1,2...
여기서 알 수 있는 것은 AR 모형의 ACF는 시차가 증가함에 따라서 지수적으로 감소한다는 것이다. (exponentially decaying) 다음으로 PACF를 구해보면, P(1)은 ϕ1과 동일하다. 그리고 P(k),k>1은 0이 된다. 이 사실을 통해, AR 모형의 PACF는 order에 해당하는 시차에서 cutoff되는 성질을 갖음을 유추할 수 있다. (AR(p)까지 다 정리한다음 이런 결론을 내리는 것이 맞지만, 다 설명하기에 어려움으로 이렇게 마무리를 한다. 궁금하면 AR(p)가 어떤 ACF와 PACF 형태를 갖는지 직접 구해보자.)
다음으로, MA의 기본적인 형태를 확인해보자.
Zt=at−θ1at−1
위 식에서 θ1은 조건이 필요하고, 위 식은 MA(1) 모형이다. 위 식에서 분산을 구해보면,
Var[Zt]=γ(0)=E[(at−θ1at−1)2]=(1+θ21)σ2으로 나타낼 수 있다.
다음으로 자기공분산 함수를 구해보면,
γ(1)=E[ZtZt−1]=E[(at−θ1at−1)(at−1−θ1at−2)]=−θ1σ2 이고, γ(k)=0,k>1 이다. 그럼으로, ACF를 구해보면 다음과 같다.
ρ(1)=−θ11+θ21, ρ(k)=0,k>1
위 결과를 통해서 MA는 order 만큼의 시차에서 ACF가 cutoff되는 형태를 갖는 다는 것을 알 수 있다.
다음으로 PACF를 구해보면, 다음과 같다.
P(1)=ρ(1)=−θ11+θ21
P(k)=−θk1(1−θ21)1−θ2(k+1)1,k=1,2,...
MA(1) 모형을 AR 표현식으로 바꿀 수가 있는데, 이때 invertibility 조건을 만족해야한다. 이 조건을 만족하기 위해서는 |θ1|<1을 만족해야함으로, PACF의 형태는 시차 k가 증가할 때 0으로 감소하는 형태를 보여준다.
마지막으로, ARMA (autoregressive moving average) 모형은 AR 모형과 MA 모형을 결합한 형태로 다음과 같이 시차 (p,q)가 관여된 모형을 ARMA(p,q)라고 하고 다음과 같이 나타낸다.
Zt−ϕ1Zt−1−...−ϕpZt−p=at−θ1at−1−...−θqat−q, 혹은
ϕp(B)Zt=θq(B)at로 나타낸다.
위 ARMA 모형의 정상성 및 가역성의 조건은 다음을 만족하는 것이다.
(1) ϕp(B)=0의 각 근의 크기가 1보다 커야한다 : 정상성 조건
(2) θq(B)=0의 각 근의 크기가 1보다 커야한다 : 가역성 조건
(4) ϕp=0와 θq=0에는 공통적인 근이 없어야한다.
추후에 보겠지만, ARMA 모형은 AR과 MA가 함께 사용되는 모형이기 때문에, ACF와 PACF가 AR과 MA에서 보는 특징과 조금 다르다. 이 부분은 다음 포스팅에 다루고자 한다.
'Time-series Forecasting > Prediction' 카테고리의 다른 글
5. Time series model prediction (0) | 2021.06.22 |
---|---|
4. Time series model identification and estimation (0) | 2021.06.22 |
2. Stationary time series (Stationarity) (0) | 2021.06.22 |
1. Smoothing method (Evaluation metrics) (0) | 2021.06.22 |
1. Smoothing method (exponential smoothing) (0) | 2020.01.01 |