일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 딥러닝
- Machine Learning
- Deep learning
- GAN
- 백준
- 설명가능한
- Interpretability
- AI
- meta-learning
- 코딩테스트
- 인공지능
- Unsupervised learning
- 시계열 분석
- python
- SmoothGrad
- coding test
- Score-CAM
- Artificial Intelligence
- 코딩 테스트
- xai
- Cam
- keras
- 설명가능한 인공지능
- 머신러닝
- 메타러닝
- Explainable AI
- 기계학습
- grad-cam
- Class activation map
- cs231n
- Today
- Total
목록Deep learning/GAN (7)
iMTE
starGANStarGAN: Unified Generative Adversarial Networks for Multi-Domain Image-to-Image TranslationChoi, Yunjey, et al. "Stargan: Unified generative adversarial networks for multi-domain image-to-image translation." arXiv preprint 1711 (2017). Facial emotion을 detection하는 알고리즘을 만들다가, starGAN 논문을 읽고 정리를 해본다.StarGAN에서 주목한 점은, 기존의 접근 방식들이 (Pix2Pix, CycleGAN, DiscoGAN 등) 두 개 이상의 domain 사이의 관계를 학습할 때 ..
Pix2PixImage-to-Image Translation with Conditional Adversarial NetworksIsola, Phillip, et al. "Image-to-image translation with conditional adversarial networks." arXiv preprint (2017). cycleGAN, DiscoGAN, Pix2Pix 와 같은 image-to-image translation model은 보란듯이 첫 페이지에 결과를 보여준다. (이러니 안궁금할 수가 없지.) 핵심만 간단하게 해석하고 접근을 해보자.먼저, Pix2Pix는 다른 cylceGAN, DiscoGAN과 달리 Paired image를 요구한다. 즉, input output이 서로 관련이 있..
DiscoGANLearning to Discover Cross-Domain Relations with Generative Adversarial NetworksKim, Taeksoo, et al. "Learning to discover cross-domain relations with generative adversarial networks." arXiv preprint arXiv:1703.05192 (2017).GAN에서 직접적으로 결과를 보여줄 수 있는 것은 역시나 이미지인 것 같다. cycleGAN도 그렇고, 이미지로 확 impact를 주니.. 안궁금할 수가 없는 것 같다. cycleGAN과 굉장히 유사한 개념을 기반으로 loss function을 정했고, network를 구성했다. 이 논문에서 cy..
CycleGANUnpaired Image-to-Image Translation using Cycle-Consistent Adversarial NetworksZhu, Jun-Yan, et al. "Unpaired image-to-image translation using cycle-consistent adversarial networks." arXiv preprint (2017).위의 그림에서 보는 것과 같이, cycleGAN은 서로 다른 domain의 이미지를 translate하는 'Image-to-Image translation' GAN이다. GAN이라는 단어가 사용되었기 때문에 당연히, Discriminator와 Generator는 서로 'Adversarial learning'을 시행한다. Cycle..
Super-resolution GAN (SRGAN)Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial NetworkLedig, Christian, et al. "Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network." CVPR. Vol. 2. No. 3. 2017. 간략하게 설명하자면, 기존의 super-resolution 문제에 대해서 단순히 MSE(Mean squared error)를 loss function(objective function)으로 정해놓고 optimization을 해본 결과, high peak sign..
Conditional GAN source: https://github.com/eriklindernoren/Keras-GAN/blob/master/cgan/cgan.py Conditional GAN (CGAN)은 specific condition이 주어진 상태에서 fake image를 만들어내는 것이다. 이 condition은 discriminator와 generator의 loss function에 포함된다. GAN의 loss function은 다음과 같고, CGAN의 loss function은 다음과 같다. condition y가 추가된것 외에는 다른 점이 없다. MNIST 데이터를 사용해서 각 class에 해당하는 숫자를 generation하는 code를 keras로 작성해보자. 위와같은 코드를 작성하..