일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 코딩테스트
- AI
- 설명가능한 인공지능
- 설명가능한
- Machine Learning
- Deep learning
- Class activation map
- Artificial Intelligence
- keras
- grad-cam
- Explainable AI
- Cam
- GAN
- Interpretability
- 인공지능
- 메타러닝
- xai
- 기계학습
- SmoothGrad
- meta-learning
- 딥러닝
- Score-CAM
- cs231n
- 머신러닝
- Unsupervised learning
- 백준
- 시계열 분석
- python
- coding test
- 코딩 테스트
- Today
- Total
목록Deep learning study (43)
iMTE
Reference:http://cs231n.github.io/neural-networks-3/http://aikorea.org/cs231n/neural-networks-2-kr/(이번 section 내용은 100 % 번역이 위의 주소에 잘 되어 있다.) Learning이전 sections에서는 layer를 쌓고, layer의 units을 준비할지 (network connectivity), 데이터를 어떻게 준비하고, 어떤 손실 함수 (loss function)을 선택할지에 대해서 다루었다. 본 section에서는 parameter를 학습하고 좋은 hyper-parameter를 찾는 과정에서 다룰 예정이다. Gradient checksNumerical 방법으로 계산한 gradient과 Analytic 방법으..
Reference:http://cs231n.github.io/neural-networks-2/http://aikorea.org/cs231n/neural-networks-2-kr/ Setting up the data and the modelNeural network는 dot product와 non-linearity 연산을 sequentially 수행한다. Neural networks의 모델은 linear mapping을 non-linear transformation에 적용하는 과정이 연속적으로 진행한다. 이번 장에서는 data preprocessing, weight initialization, loss function을 다룬다. Data preprocessing데이터 행렬 X에 대해서 3가지 전처리 방버이..
Reference:http://cs231n.github.io/neural-networks-1/http://aikorea.org/cs231n/neural-networks-1/ Introduction- Neural networks는 단순히 행렬 (matrix)와 벡터 (column vector)간의 연산으로 나타낼 수 있다. 예를 들어, W가 [10 x 3072], x가 [3072 x 1]의 크기를 갖고 있다면, (CIFAR-10 경우) 최종 출력 score (class와 연관된 점수)는 다음과 같이 표현될 수 있다.- - Neural network는 행렬 연산에 특정 non linear function을 적용하는 형태로 구성된다. 예를 들어, 다음과 같이 max 함수를 사용하는 단계를 추가하면, 2층 la..