일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- coding test
- meta-learning
- 딥러닝
- 인공지능
- GAN
- 메타러닝
- 설명가능한
- Interpretability
- 코딩테스트
- 코딩 테스트
- 기계학습
- Score-CAM
- 시계열 분석
- Cam
- python
- Class activation map
- Unsupervised learning
- 설명가능한 인공지능
- Artificial Intelligence
- 머신러닝
- Explainable AI
- AI
- grad-cam
- 백준
- Machine Learning
- Deep learning
- cs231n
- xai
- SmoothGrad
- keras
Archives
- Today
- Total
목록weight initialization (1)
iMTE
Neural Networks Part 2: Setting up the Data and the Loss
Reference:http://cs231n.github.io/neural-networks-2/http://aikorea.org/cs231n/neural-networks-2-kr/ Setting up the data and the modelNeural network는 dot product와 non-linearity 연산을 sequentially 수행한다. Neural networks의 모델은 linear mapping을 non-linear transformation에 적용하는 과정이 연속적으로 진행한다. 이번 장에서는 data preprocessing, weight initialization, loss function을 다룬다. Data preprocessing데이터 행렬 X에 대해서 3가지 전처리 방버이..
Deep learning study/CS231n
2019. 3. 2. 10:59