일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 |
Tags
- keras
- 코딩 테스트
- AI
- meta-learning
- python
- 설명가능한 인공지능
- Interpretability
- Artificial Intelligence
- 딥러닝
- GAN
- grad-cam
- Machine Learning
- 머신러닝
- Score-CAM
- Cam
- coding test
- Unsupervised learning
- cs231n
- 기계학습
- 인공지능
- Deep learning
- Class activation map
- 백준
- SmoothGrad
- 시계열 분석
- Explainable AI
- xai
- 설명가능한
- 메타러닝
- 코딩테스트
Archives
- Today
- Total
목록NORMALIZATION (1)
iMTE
Neural Networks Part 2: Setting up the Data and the Loss
Reference:http://cs231n.github.io/neural-networks-2/http://aikorea.org/cs231n/neural-networks-2-kr/ Setting up the data and the modelNeural network는 dot product와 non-linearity 연산을 sequentially 수행한다. Neural networks의 모델은 linear mapping을 non-linear transformation에 적용하는 과정이 연속적으로 진행한다. 이번 장에서는 data preprocessing, weight initialization, loss function을 다룬다. Data preprocessing데이터 행렬 X에 대해서 3가지 전처리 방버이..
Deep learning study/CS231n
2019. 3. 2. 10:59