일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 설명가능한
- xai
- GAN
- SmoothGrad
- python
- 코딩 테스트
- Class activation map
- keras
- Interpretability
- 딥러닝
- Cam
- 머신러닝
- Machine Learning
- meta-learning
- 코딩테스트
- AI
- 설명가능한 인공지능
- 메타러닝
- grad-cam
- Unsupervised learning
- 백준
- Score-CAM
- 인공지능
- coding test
- 기계학습
- Artificial Intelligence
- 시계열 분석
- Deep learning
- Explainable AI
- cs231n
Archives
- Today
- Total
목록batch normalization (1)
iMTE
BatchNormalization
BatchNormalization Neural network의 weight이 학습이 되다보면, each layer의 input의 분포가 앞의 layer의 update된 weight에 의해서 변하게 된다. 이런 distribution은 training의 속도를 늦출 뿐만 아니라 very deep neural network를 학습시키가 매우 어렵다. 예를 들어, 맨 처음 layer의 parameter가 살짝 수정되었다고 했을 때, network는 이를 amplification 하기 때문에, 마지막 layer에 들어오는 입력의 분포가 상당히 달라져있을 수가 있다. Sigmoid 함수를 바탕으로 보면, Sigmoid 함수는 입력되는 값이 매우 낮거나 매우 높으면 saturation되어 gradient가 0이 된..
Deep learning
2018. 6. 19. 17:38