일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 머신러닝
- SmoothGrad
- xai
- coding test
- 코딩 테스트
- Interpretability
- meta-learning
- 백준
- Score-CAM
- GAN
- Cam
- 시계열 분석
- cs231n
- 인공지능
- Deep learning
- Unsupervised learning
- grad-cam
- 설명가능한
- python
- Artificial Intelligence
- 딥러닝
- Class activation map
- Explainable AI
- Machine Learning
- 메타러닝
- 기계학습
- keras
- 코딩테스트
- 설명가능한 인공지능
- AI
Archives
- Today
- Total
목록배치정규화 (1)
iMTE
BatchNormalization
BatchNormalization Neural network의 weight이 학습이 되다보면, each layer의 input의 분포가 앞의 layer의 update된 weight에 의해서 변하게 된다. 이런 distribution은 training의 속도를 늦출 뿐만 아니라 very deep neural network를 학습시키가 매우 어렵다. 예를 들어, 맨 처음 layer의 parameter가 살짝 수정되었다고 했을 때, network는 이를 amplification 하기 때문에, 마지막 layer에 들어오는 입력의 분포가 상당히 달라져있을 수가 있다. Sigmoid 함수를 바탕으로 보면, Sigmoid 함수는 입력되는 값이 매우 낮거나 매우 높으면 saturation되어 gradient가 0이 된..
Deep learning
2018. 6. 19. 17:38