일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 시계열 분석
- Explainable AI
- 설명가능한 인공지능
- 머신러닝
- meta-learning
- Artificial Intelligence
- Interpretability
- python
- Machine Learning
- Class activation map
- grad-cam
- GAN
- 설명가능한
- keras
- Deep learning
- Score-CAM
- SmoothGrad
- coding test
- Cam
- AI
- cs231n
- 메타러닝
- xai
- 딥러닝
- 백준
- 코딩 테스트
- Unsupervised learning
- 기계학습
- 코딩테스트
- 인공지능
Archives
- Today
- Total
목록L2 regularization (1)
iMTE
Regularization
Regularization 머신러닝 모델이 학습 데이터를 잘 설명하고, 테스트 데이터를 잘 설명하지 못한다면 이는 모델이 overfitting (과적합)이 되어 있을 가능성이 매우 크다. 과적합된 모델은 많은 rules을 가지고 있어, noise 성분도 학습을 했을 가능성이 있다. 노이즈가 무시할 정도의 수준이 아니라면 이 모델은 noise에 의해서 high variance를 갖게되며 이는 모델의 일반화 성능을 나쁘게 만들어낸다. 모델은 bias와 variance의 개념을 이해하는 것이 좋다. 가장 좋은 모델은 낮은 bias와 variance를 갖지만, 사실 이런 모델을 만들기는 매우 어렵고, bias를 낮추다 보면 variance가 증가하고, variance를 낮추다 보면 bias가 증가하는, trad..
Machine learning
2018. 6. 18. 15:55