일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- Explainable AI
- 딥러닝
- Artificial Intelligence
- Unsupervised learning
- Class activation map
- xai
- Cam
- Interpretability
- 설명가능한
- cs231n
- python
- 설명가능한 인공지능
- coding test
- Machine Learning
- Score-CAM
- 백준
- GAN
- Deep learning
- 인공지능
- 머신러닝
- keras
- grad-cam
- 기계학습
- 코딩 테스트
- 시계열 분석
- SmoothGrad
- 메타러닝
- AI
- 코딩테스트
- meta-learning
Archives
- Today
- Total
목록주성분분석 (1)
iMTE
PCA 주성분 분석
주성분 분석 PCA(Principal Components Analysis) 1. Curse of dimensionality 어떤 데이터에서 feature를 추출할 수 있고, 이 feature의 개수가 많으면 많을 수록 학습이 잘 될 것이라고 착각을 하게된다. 하지만 실제 유의미한 feature들을 찾는 것이 매우 중요하고. 몇몇 논문들은 성능이 최대가 되는 조합을 random feature 조합을 찾아서 찾아낸다. Curse of dimensionality는 dimension reduction의 방법으로 고차원의 feature vector를 저차원의 feature vector로 바꿔주는 방법이다. Curse of dimensionality는 K-NN에서 흔히 다들 심각성을 설명하는데, 차원의 수가 많아질..
Machine learning
2018. 6. 11. 14:23