일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- Deep learning
- xai
- 머신러닝
- 메타러닝
- Class activation map
- 설명가능한 인공지능
- AI
- meta-learning
- Machine Learning
- 설명가능한
- Interpretability
- Cam
- 딥러닝
- Score-CAM
- 시계열 분석
- 백준
- 코딩테스트
- coding test
- keras
- Explainable AI
- SmoothGrad
- 기계학습
- cs231n
- python
- Unsupervised learning
- 코딩 테스트
- GAN
- Artificial Intelligence
- 인공지능
- grad-cam
Archives
- Today
- Total
목록early stopping (1)
iMTE
Regularization
Regularization 머신러닝 모델이 학습 데이터를 잘 설명하고, 테스트 데이터를 잘 설명하지 못한다면 이는 모델이 overfitting (과적합)이 되어 있을 가능성이 매우 크다. 과적합된 모델은 많은 rules을 가지고 있어, noise 성분도 학습을 했을 가능성이 있다. 노이즈가 무시할 정도의 수준이 아니라면 이 모델은 noise에 의해서 high variance를 갖게되며 이는 모델의 일반화 성능을 나쁘게 만들어낸다. 모델은 bias와 variance의 개념을 이해하는 것이 좋다. 가장 좋은 모델은 낮은 bias와 variance를 갖지만, 사실 이런 모델을 만들기는 매우 어렵고, bias를 낮추다 보면 variance가 증가하고, variance를 낮추다 보면 bias가 증가하는, trad..
Machine learning
2018. 6. 18. 15:55