일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- Interpretability
- GAN
- Artificial Intelligence
- Score-CAM
- 인공지능
- grad-cam
- Cam
- coding test
- Unsupervised learning
- cs231n
- keras
- xai
- python
- SmoothGrad
- 백준
- 시계열 분석
- AI
- Class activation map
- 머신러닝
- Deep learning
- Explainable AI
- 설명가능한 인공지능
- 설명가능한
- 딥러닝
- Machine Learning
- 기계학습
- 코딩테스트
- 코딩 테스트
- 메타러닝
- meta-learning
- Today
- Total
목록AI (7)
iMTE
논문 제목 : Adapting Grad-CAM for Embedding Networks 논문 주소 : https://openaccess.thecvf.com/content_WACV_2020/html/Chen_Adapting_Grad-CAM_for_Embedding_Networks_WACV_2020_paper.html WACV 2020 Open Access Repository Lei Chen, Jianhui Chen, Hossein Hajimirsadeghi, Greg Mori; Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision (WACV), 2020, pp. 2794-2803 The gradient-weighte..
Meta-learning for semi-supervised few-shot classification (ICLR, 2018) Abstract"In this work, we advance this few-shot classification paradigm towards a scenario where unlabeled examples are also available within each episode....To address this paradigm, we propose novel extensions of Prototypical Networks that are augmented with the ability to use unlabeled examples when producing prototypes."U..
Deep Meta-Learning: Learning to Learn in the Concept Space Abstract "In this work, we argue that this is due to the lack of a good representation for meta-learning, and propose deep meta-learning to integrate the representation power of deep learning into meta-learning" Few-shot learning이 많은 related tasks로 부터 learning algorithm을 학습하는 것이 어려운데, 이를 좀 더 나은 representation으로 해결하자는 방법이 Deep Meta-Learni..
Gradient agreement as an optimization objective for meta-learning (NIPS, 2018) Abstract"Our approach is based on pushing the parameters of the model to a direction in which tasks have more agreement upon. If the gradients of a task agree with the parameters update vector, then their inner product will be a large positive value." 각 Task에서 얻은 gradient의 정보에서 가장 agreement가 큰 부분을 살리고, 반대되는 경우나 다른 방향의..
Meta-Learning sub parts 1. Adversarial Meta Learning (ADML)MAML에서 optimal weight initialization을 찾는 것이 목표였다. Optimal weight initialization을 찾을 때, 좀더 나으면서 견고한 model parameters를 찾기 위해서 clean data와 adversarial data를 사용하는 MAML을 ADML이라고 부른다. Network가 adversarial examples에 의해서 잘못된 판단을 내린다는 점으로 인해서, adversarial example을 사용하는 경우 좀 더 network가 adversarial attack에 강인하고, noisy에 강인하다는 점을 갖게 된다. 이러한 성질을 MAML에..
Conditional GAN source: https://github.com/eriklindernoren/Keras-GAN/blob/master/cgan/cgan.py Conditional GAN (CGAN)은 specific condition이 주어진 상태에서 fake image를 만들어내는 것이다. 이 condition은 discriminator와 generator의 loss function에 포함된다. GAN의 loss function은 다음과 같고, CGAN의 loss function은 다음과 같다. condition y가 추가된것 외에는 다른 점이 없다. MNIST 데이터를 사용해서 각 class에 해당하는 숫자를 generation하는 code를 keras로 작성해보자. 위와같은 코드를 작성하..
Generative Adversarial Networks (GAN) 두 신경망이 '경쟁'하면서 서로 학습하는 재미있는 아이디어를 가진 network를 Generative adversarial networks 라고 부른다. 두개의 신경망 중 하나는 1. Generative model, 2. Discriminator모델이다. 흔히 이 모델을 설명할 때 위조지폐를 만드는 범인과 이를 감독하는 경찰의 예를 든다. 경찰은 범인이 만든 위조 지폐를 구분을 하고, 거짓인지 진짜인지를 밝힌다. 범인은 이런 과정을 보고 경찰을 속이기 위해서 더 나은 위조 지폐를 만들어 낸다. 그러면 경찰은 다시 더 정밀하게 구분하도록 학습을 하게되고.. 최종적으로는 경찰은 위조 지폐를 분류할 거짓이라고 확률이 50 %가 될 정도로 정밀..