일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 설명가능한
- Artificial Intelligence
- 메타러닝
- 백준
- python
- GAN
- cs231n
- Cam
- 코딩테스트
- SmoothGrad
- Interpretability
- 시계열 분석
- grad-cam
- 설명가능한 인공지능
- 딥러닝
- 기계학습
- Deep learning
- 머신러닝
- xai
- Score-CAM
- meta-learning
- AI
- 인공지능
- Explainable AI
- keras
- Machine Learning
- 코딩 테스트
- Unsupervised learning
- coding test
- Class activation map
Archives
- Today
- Total
목록pytorch (1)
iMTE
Visualizing outputs from intermediate layers
Deep neural network는 대표적인 black box로 내부에 어떤 경과를 통해서 decision이 되었는지를 알지 못하는 문제가 있다. Support Vector Machine도 그런점을 갖고 있다. 반대로 Decision tree는 decision 과정을 확인할 수 있기 때문에 대표적인 white box 형태의 machine learning model이다. Deep neural network는 output layer의 activation 결과를 바탕으로 learned filter가 어떤 feature map을 만들었는지를 확인할 수 있다. 다음은 pytorch로 pre-trained vgg16의 feature map을 확인한 결과이다. 그리고 learned된 filter의 형태를 나타냈다.
Deep learning/pytorch
2018. 6. 27. 00:25