일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- Cam
- 기계학습
- 설명가능한
- Artificial Intelligence
- 딥러닝
- Explainable AI
- coding test
- Machine Learning
- 인공지능
- python
- 머신러닝
- 메타러닝
- Score-CAM
- 백준
- Deep learning
- SmoothGrad
- Unsupervised learning
- 코딩테스트
- Interpretability
- keras
- 코딩 테스트
- GAN
- AI
- meta-learning
- cs231n
- xai
- Class activation map
- 설명가능한 인공지능
- 시계열 분석
- grad-cam
- Today
- Total
목록분류 전체보기 (125)
iMTE
Computer Vision [3] 1. Fitting (Modeling)특정 Feature Extraction Methods로부터 추출된 Features는 우리가 원하는 특정 값과의 상관성을 찾는데 사용될 수 있다. Features를 사용하여 특정 값과의 상관성을 찾는 방법 중에는 가장 많이 사용되는 Least Square Method와 outlier에 강인한 RANSAC (Random SAmple Consensus)가 있다. 2. Least Square Method최소자승법이라고 불리는 Least Square Method는 y = ax +b와 같은 선형 관계를 찾는데 사용된다. y는 우리가 원하는 특정 값이며, x는 입력 Feature이다. a와 b를 찾는 것이 상관성을 찾아내서 모델화를 시키는 방법..
Computer Vision [2] 1. SIFT(Scale-Invariant Feature Transformation)앞 장에서, Harris Corner Detection은 Scale variation에 취약하며, Laplace of Gaussian (LoG)는 연산량이 많다고 언급하였다. 이를 해결하기 위해서 SIFT가 제안되었는데, SIFT는 두 부분으로 나뉜다.1). Detector - Interesting point를 찾고 그 point를 filtering 한다.2). Descriptor - Interesting point 주위의 방향을 바탕으로 dominant한 orientation과 주변 pixel들의 방향에 대한 정보를 끌어낸다.이 두가지 방법으로 인해서 SIFT는 1). Scale Va..
Computer Vision[1] 1. Image Features이미지는 각 pixel (0~255)로 나타나는 matrix이다. Raw pixel을 사용해 image를 분석할 수 있지만, Raw pixel은 1. scale variation, 2. intra-class variation, 3. deformation, 4. occlusion, 5. illumination change 등에 매우 취약하므로, 이미지의 pixel matrix에서 특정 "feature"를 찾는 과정이 필요하다. Feature는 하나의 이미지에 "vector" 형태로 추출되며, 추출된 "vector (e.g., feature)"는 Decision Marker (ex, machine learning models)에 의해서 분류(c..
You Only Look Once : Unified Real-Time Object Detection (2016)Redmon, Joseph, et al. "You only look once: Unified, real-time object detection." Proceedings of the IEEE conference on computer vision and pattern recognition. 2016.(학교에서 찍은 영상에 YOLO를 적용한 case. 나무는 class가 없어서 detect을 하지 못하고 대신에 자동차는 잘 detect한다) Object를 단순히 classification하는 문제는, ImageNet, CIFAR 등 dataset으로 학습된 모델 (AlexNet, ResNet, Goo..
Show and Tell: A Neural Image Caption GeneratorVinyals, Oriol, et al. "Show and tell: A neural image caption generator." Proceedings of the IEEE conference on computer vision and pattern recognition. 2015.Image-to-sentence translation은 sentence-to-sentence translation을 기초로, 기존에 Encoder로 사용된 RNN 대신에 CNN을 사용해서 이미지를 encoding을 하였다. Image-to-sentence 작업은 기존의 object detection과 object classification과 달..
starGANStarGAN: Unified Generative Adversarial Networks for Multi-Domain Image-to-Image TranslationChoi, Yunjey, et al. "Stargan: Unified generative adversarial networks for multi-domain image-to-image translation." arXiv preprint 1711 (2017). Facial emotion을 detection하는 알고리즘을 만들다가, starGAN 논문을 읽고 정리를 해본다.StarGAN에서 주목한 점은, 기존의 접근 방식들이 (Pix2Pix, CycleGAN, DiscoGAN 등) 두 개 이상의 domain 사이의 관계를 학습할 때 ..
Pix2PixImage-to-Image Translation with Conditional Adversarial NetworksIsola, Phillip, et al. "Image-to-image translation with conditional adversarial networks." arXiv preprint (2017). cycleGAN, DiscoGAN, Pix2Pix 와 같은 image-to-image translation model은 보란듯이 첫 페이지에 결과를 보여준다. (이러니 안궁금할 수가 없지.) 핵심만 간단하게 해석하고 접근을 해보자.먼저, Pix2Pix는 다른 cylceGAN, DiscoGAN과 달리 Paired image를 요구한다. 즉, input output이 서로 관련이 있..
혈당측정기 (Glucose Monitoring) [1] - 개요 출처: Medtronic 네이버 사전에서 당뇨를 다음과 같이 설명하고 있다."인슐린의 분비량이 부족하거나 정상적인 기능이 이뤄지지 않는 등의 대사질환의 일종으로, 혈중 포도당 농도가 높은 것이 특징인 질환" (네이버 사전)당뇨병은 크게 제 1형 당뇨와 제 2형 당뇨로 구분이 되는데, 제 1형 당뇨의 경우 자가면역에의해서 췌장의 베타세포가 파괴되어 인슐린을 전혀 분비하지 못하는 것이 원인이 된다. 반대로, 제 2형 당뇨의 경우 인슐린 저항성(insulin resistance)가 증가하는 것으로, 췌장의 베타세포가 더 많은 인슐린을 생산해내면서, 베타세포의 파괴되면서 결국 인슐린을 전혀 분비하지 못하는 상태가되는 질환이다. 1형 당뇨의 경우 유..
DiscoGANLearning to Discover Cross-Domain Relations with Generative Adversarial NetworksKim, Taeksoo, et al. "Learning to discover cross-domain relations with generative adversarial networks." arXiv preprint arXiv:1703.05192 (2017).GAN에서 직접적으로 결과를 보여줄 수 있는 것은 역시나 이미지인 것 같다. cycleGAN도 그렇고, 이미지로 확 impact를 주니.. 안궁금할 수가 없는 것 같다. cycleGAN과 굉장히 유사한 개념을 기반으로 loss function을 정했고, network를 구성했다. 이 논문에서 cy..
CycleGANUnpaired Image-to-Image Translation using Cycle-Consistent Adversarial NetworksZhu, Jun-Yan, et al. "Unpaired image-to-image translation using cycle-consistent adversarial networks." arXiv preprint (2017).위의 그림에서 보는 것과 같이, cycleGAN은 서로 다른 domain의 이미지를 translate하는 'Image-to-Image translation' GAN이다. GAN이라는 단어가 사용되었기 때문에 당연히, Discriminator와 Generator는 서로 'Adversarial learning'을 시행한다. Cycle..