일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 기계학습
- 시계열 분석
- 메타러닝
- Deep learning
- Artificial Intelligence
- xai
- Machine Learning
- keras
- Score-CAM
- meta-learning
- 설명가능한
- GAN
- 코딩테스트
- 인공지능
- SmoothGrad
- Class activation map
- 코딩 테스트
- python
- Cam
- AI
- Interpretability
- Unsupervised learning
- 설명가능한 인공지능
- grad-cam
- cs231n
- Explainable AI
- 머신러닝
- 백준
- coding test
- 딥러닝
Archives
- Today
- Total
목록L1 regularization (1)
iMTE
Regularization
Regularization 머신러닝 모델이 학습 데이터를 잘 설명하고, 테스트 데이터를 잘 설명하지 못한다면 이는 모델이 overfitting (과적합)이 되어 있을 가능성이 매우 크다. 과적합된 모델은 많은 rules을 가지고 있어, noise 성분도 학습을 했을 가능성이 있다. 노이즈가 무시할 정도의 수준이 아니라면 이 모델은 noise에 의해서 high variance를 갖게되며 이는 모델의 일반화 성능을 나쁘게 만들어낸다. 모델은 bias와 variance의 개념을 이해하는 것이 좋다. 가장 좋은 모델은 낮은 bias와 variance를 갖지만, 사실 이런 모델을 만들기는 매우 어렵고, bias를 낮추다 보면 variance가 증가하고, variance를 낮추다 보면 bias가 증가하는, trad..
Machine learning
2018. 6. 18. 15:55