일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- coding test
- 딥러닝
- 설명가능한 인공지능
- 시계열 분석
- Class activation map
- Machine Learning
- GAN
- keras
- Artificial Intelligence
- Cam
- Unsupervised learning
- SmoothGrad
- xai
- 메타러닝
- Score-CAM
- 코딩테스트
- 설명가능한
- 백준
- Interpretability
- 머신러닝
- 기계학습
- meta-learning
- Deep learning
- 코딩 테스트
- AI
- Explainable AI
- cs231n
- grad-cam
- 인공지능
- python
- Today
- Total
목록머신러닝 (6)
iMTE
Likelihood function and Maximum Likelihood Estimation 1) Likelihood Likelihood는 주어진 parameter에대해서 관측된 데이터 (Observed data) 에 대한 확률로, 다음과 같이 나타낸다. 설명을 돕기위해서, 만약 관측된 데이터들이 서로 독립 (Independent)이고, mu와 sigma^2를 갖는 정규분포를 따를 경우에는 다음과 같이 likelihood를 표현할 수 있다. Likelihood는 위와 같이 계산이 된다. 2) Maximum Likelihood Estimation Maximum Likelihood Estimation (MLE)는 주어진 데이터에 대해 이를 잘 설명하는 모델의 parameter를 구할 때 사용되는 기술이다..
주성분 분석 PCA(Principal Components Analysis) 1. Curse of dimensionality 어떤 데이터에서 feature를 추출할 수 있고, 이 feature의 개수가 많으면 많을 수록 학습이 잘 될 것이라고 착각을 하게된다. 하지만 실제 유의미한 feature들을 찾는 것이 매우 중요하고. 몇몇 논문들은 성능이 최대가 되는 조합을 random feature 조합을 찾아서 찾아낸다. Curse of dimensionality는 dimension reduction의 방법으로 고차원의 feature vector를 저차원의 feature vector로 바꿔주는 방법이다. Curse of dimensionality는 K-NN에서 흔히 다들 심각성을 설명하는데, 차원의 수가 많아질..
Source : https://ko.wikipedia.org/wiki/%EA%B2%B0%EC%A0%95_%ED%8A%B8%EB%A6%AC_%ED%95%99%EC%8A%B5%EB%B2%95 Decision Tree (DT) 개요 Input과 output을 연결시켜주는 예측 모델로, regression의 문제인 경우 regression tree, classification 문제인 경우 classification tree로 불린다. DT는 시각적인 방법으로 의사 결정이 어떻게 진행되는지를 보여줄 수 있는 장점이 있다. Input과 output을 요구한다는 점에서 supervised learning이다. DT에서의 학습은 적절한 분할 기준에 따라 부분 집합들로 나누는 과정이고, 나뉘어진 자료 부분 집합에 다시 ..
Han, Kun, Dong Yu, and Ivan Tashev. "Speech emotion recognition using deep neural network and extreme learning machine." Fifteenth Annual Conference of the International Speech Communication Association. 2014. Abstract 1. Speech emotion recognition은 어떤 feature들이 의미가 있는지 파악하기 어려움.2. Deep Neural Networks (DNN)은 raw data에서 high-level feature를 추출하여서 speech emotion recognition에 효과적인 결과를 보여줌.3. Extrem..
Longadge, Rushi, and Snehalata Dongre. "Class imbalance problem in data mining review." arXiv preprint arXiv:1305.1707(2013). https://arxiv.org/ftp/arxiv/papers/1305/1305.1707.pdf Classification of data becomes difficult because of unbounded size and imbalance nature of data. Class imbalance problem become greatest issue in data mining. Data의 imbalance함은 두개의 class 중 하나의 class를 더 많이 sampling해서 문제..
김성훈 교수님의 모두의 딥러닝 https://hunkim.github.io/ml/ 우재준님의 blog http://jaejunyoo.blogspot.com/2017/04/began-boundary-equilibrium-gan-1.html 이기창님의 blog https://ratsgo.github.io/machine%20learning/2017/05/23/SVM/ 최성준님의 edwith 강의 http://www.edwith.org/deeplearningchoi Standford 수업 CS231n http://cs231n.stanford.edu/ Udacity deep learning 무료 강의 https://www.udacity.com/course/deep-learning--ud730 김태영님의 keras..