일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- AI
- meta-learning
- 설명가능한 인공지능
- python
- 메타러닝
- coding test
- 딥러닝
- Class activation map
- grad-cam
- GAN
- 코딩테스트
- Unsupervised learning
- SmoothGrad
- 기계학습
- cs231n
- Machine Learning
- Cam
- xai
- Interpretability
- Artificial Intelligence
- Deep learning
- 코딩 테스트
- 백준
- keras
- 시계열 분석
- 머신러닝
- 설명가능한
- Explainable AI
- Score-CAM
- 인공지능
- Today
- Total
목록PCA (2)
iMTE
Reference:http://cs231n.github.io/neural-networks-2/http://aikorea.org/cs231n/neural-networks-2-kr/ Setting up the data and the modelNeural network는 dot product와 non-linearity 연산을 sequentially 수행한다. Neural networks의 모델은 linear mapping을 non-linear transformation에 적용하는 과정이 연속적으로 진행한다. 이번 장에서는 data preprocessing, weight initialization, loss function을 다룬다. Data preprocessing데이터 행렬 X에 대해서 3가지 전처리 방버이..
주성분 분석 PCA(Principal Components Analysis) 1. Curse of dimensionality 어떤 데이터에서 feature를 추출할 수 있고, 이 feature의 개수가 많으면 많을 수록 학습이 잘 될 것이라고 착각을 하게된다. 하지만 실제 유의미한 feature들을 찾는 것이 매우 중요하고. 몇몇 논문들은 성능이 최대가 되는 조합을 random feature 조합을 찾아서 찾아낸다. Curse of dimensionality는 dimension reduction의 방법으로 고차원의 feature vector를 저차원의 feature vector로 바꿔주는 방법이다. Curse of dimensionality는 K-NN에서 흔히 다들 심각성을 설명하는데, 차원의 수가 많아질..