일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 딥러닝
- keras
- grad-cam
- Interpretability
- GAN
- 설명가능한 인공지능
- 코딩 테스트
- Cam
- Unsupervised learning
- SmoothGrad
- 인공지능
- Deep learning
- 기계학습
- AI
- python
- Machine Learning
- 설명가능한
- cs231n
- 시계열 분석
- 메타러닝
- Explainable AI
- meta-learning
- Artificial Intelligence
- xai
- Class activation map
- 코딩테스트
- Score-CAM
- 머신러닝
- 백준
- coding test
- Today
- Total
목록결정트리 (2)
iMTE
Decision Tree (의사결정나무) 결정 트리의 학습 -> 결정 트리를 구축하는 방법. Grow a tree Supervised learning에 사용되는 방법과 같이 특징 (features)들과 class의 index로 데이터가 구성된다. Decision Tree (DT)의 leaf는 클래스의 index를, branch or node는 decision node가 된다. decision node에서는 가능한 feature값으로 branch를 형성한다. 각 node가 내부에 있는 경우에 feature이 하나이다. feature에 따라 branch를 형성하고, 만약 node가 leaf인 경우 class의 index가 존재한다. 출처: 위키피디아, 결정 트리 학습 여기서 남자인가? 는 node(root ..
Source : https://ko.wikipedia.org/wiki/%EA%B2%B0%EC%A0%95_%ED%8A%B8%EB%A6%AC_%ED%95%99%EC%8A%B5%EB%B2%95 Decision Tree (DT) 개요 Input과 output을 연결시켜주는 예측 모델로, regression의 문제인 경우 regression tree, classification 문제인 경우 classification tree로 불린다. DT는 시각적인 방법으로 의사 결정이 어떻게 진행되는지를 보여줄 수 있는 장점이 있다. Input과 output을 요구한다는 점에서 supervised learning이다. DT에서의 학습은 적절한 분할 기준에 따라 부분 집합들로 나누는 과정이고, 나뉘어진 자료 부분 집합에 다시 ..