일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- Unsupervised learning
- 설명가능한
- 설명가능한 인공지능
- SmoothGrad
- coding test
- Artificial Intelligence
- 인공지능
- keras
- Explainable AI
- grad-cam
- Machine Learning
- 코딩 테스트
- 딥러닝
- 코딩테스트
- Class activation map
- 시계열 분석
- GAN
- cs231n
- 기계학습
- meta-learning
- 메타러닝
- Deep learning
- Score-CAM
- python
- xai
- Interpretability
- 백준
- 머신러닝
- AI
- Cam
- Today
- Total
iMTE
Regularization 머신러닝 모델이 학습 데이터를 잘 설명하고, 테스트 데이터를 잘 설명하지 못한다면 이는 모델이 overfitting (과적합)이 되어 있을 가능성이 매우 크다. 과적합된 모델은 많은 rules을 가지고 있어, noise 성분도 학습을 했을 가능성이 있다. 노이즈가 무시할 정도의 수준이 아니라면 이 모델은 noise에 의해서 high variance를 갖게되며 이는 모델의 일반화 성능을 나쁘게 만들어낸다. 모델은 bias와 variance의 개념을 이해하는 것이 좋다. 가장 좋은 모델은 낮은 bias와 variance를 갖지만, 사실 이런 모델을 만들기는 매우 어렵고, bias를 낮추다 보면 variance가 증가하고, variance를 낮추다 보면 bias가 증가하는, trad..
Likelihood function and Maximum Likelihood Estimation 1) Likelihood Likelihood는 주어진 parameter에대해서 관측된 데이터 (Observed data) 에 대한 확률로, 다음과 같이 나타낸다. 설명을 돕기위해서, 만약 관측된 데이터들이 서로 독립 (Independent)이고, mu와 sigma^2를 갖는 정규분포를 따를 경우에는 다음과 같이 likelihood를 표현할 수 있다. Likelihood는 위와 같이 계산이 된다. 2) Maximum Likelihood Estimation Maximum Likelihood Estimation (MLE)는 주어진 데이터에 대해 이를 잘 설명하는 모델의 parameter를 구할 때 사용되는 기술이다..
Conditional GAN source: https://github.com/eriklindernoren/Keras-GAN/blob/master/cgan/cgan.py Conditional GAN (CGAN)은 specific condition이 주어진 상태에서 fake image를 만들어내는 것이다. 이 condition은 discriminator와 generator의 loss function에 포함된다. GAN의 loss function은 다음과 같고, CGAN의 loss function은 다음과 같다. condition y가 추가된것 외에는 다른 점이 없다. MNIST 데이터를 사용해서 각 class에 해당하는 숫자를 generation하는 code를 keras로 작성해보자. 위와같은 코드를 작성하..
Boosting and AdaBoost 1. Boost Boosting 방식은 꽤 합리적인 방법이다. 하나의 강력한 classifier로 데이터를 분류하는 것은 여러 한계가 있다. 잘 생각해보면, 우리가 '정보'를 찾을 때 네이버에서만 찾지는 않는다. 여러가지 포탈 사이트에서 정보를 찾아보면서 그 정보들을 긁어모아서 우리는 나름 '학습'을 한다. 하나의 규칙은 상황에 따라서 부정확할 수 있다. 우리는 어떤 의사결정을 할 때, 다양한 규칙들을 고려를 하고 그 규칙들을 기반으로 '선택'을 한다. 하지만 이 규칙들은 어쩔때는 잘 맞을 때도 있지만 아닐 때도 있다. 다수의 weak learner를 만들어, 이들의 결정을 voting하여 더 좋은 성능을 구현하는 것이 boosting의 핵심 아이디어이다. ense..
확률 행렬과 Markov Chain 1. Markov Model 확률 행렬은 행렬의 성분이 확률로 이루어진 행렬을 의미한다. Markov chain은 한 state에서 다른 state로 변할 확률이 과거 보다 '현재'의 상태에만 의존하는 모델을 의미한다. Markov chain은 확률행렬을 사용해서 state가 변하는 transition matrix를 만들 수 있다. , state n에서 state m으로 이동할 확률 Transition matrix의 각 row의 합은 1이다. 이는 확률의 합을 의미한다. 만약 초기 state를 S1이라고 정의하고 t시간 이후의 state를 St라고 정의하면, 다음과 같이 계산이 된다. 위와 같은 식은 '마르코프 가정'에 의한다. '마르코프 가정'이란 현재 state에서..