일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 설명가능한
- Machine Learning
- Cam
- Interpretability
- 딥러닝
- Class activation map
- coding test
- grad-cam
- AI
- xai
- 시계열 분석
- Deep learning
- SmoothGrad
- 설명가능한 인공지능
- 코딩 테스트
- 머신러닝
- meta-learning
- keras
- Artificial Intelligence
- 기계학습
- GAN
- python
- Score-CAM
- 인공지능
- 백준
- Explainable AI
- cs231n
- 메타러닝
- 코딩테스트
- Unsupervised learning
Archives
- Today
- Total
목록early stopping (1)
iMTE
Regularization
Regularization 머신러닝 모델이 학습 데이터를 잘 설명하고, 테스트 데이터를 잘 설명하지 못한다면 이는 모델이 overfitting (과적합)이 되어 있을 가능성이 매우 크다. 과적합된 모델은 많은 rules을 가지고 있어, noise 성분도 학습을 했을 가능성이 있다. 노이즈가 무시할 정도의 수준이 아니라면 이 모델은 noise에 의해서 high variance를 갖게되며 이는 모델의 일반화 성능을 나쁘게 만들어낸다. 모델은 bias와 variance의 개념을 이해하는 것이 좋다. 가장 좋은 모델은 낮은 bias와 variance를 갖지만, 사실 이런 모델을 만들기는 매우 어렵고, bias를 낮추다 보면 variance가 증가하고, variance를 낮추다 보면 bias가 증가하는, trad..
Machine learning
2018. 6. 18. 15:55