일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- 코딩 테스트
- cs231n
- Explainable AI
- 백준
- 설명가능한 인공지능
- Unsupervised learning
- 기계학습
- xai
- Cam
- GAN
- coding test
- 메타러닝
- SmoothGrad
- 딥러닝
- 시계열 분석
- 설명가능한
- Deep learning
- python
- meta-learning
- Artificial Intelligence
- Machine Learning
- Score-CAM
- 인공지능
- keras
- AI
- 코딩테스트
- Interpretability
- 머신러닝
- Class activation map
- grad-cam
- Today
- Total
목록분류 전체보기 (125)
iMTE
우리가 사는 세상에는 일정한 법칙이 있습니다. 해가지면 달이 뜨고 밤하늘엔 별이 반짝입니다. 지구와 행성들은 일정한 주기로 자전과 공전을 계속합니다. 물은 위에서 아래로 흘러 시내가 되고 시내는 강물이 되어 바다로 향합니다. 추운 겨울이 지나면 반드시 봄이 오고 들판에는 꽃들이 만발합니다. 이렇게 자연의 신비로움은 경이롭기만 합니다. 이 놀라운 세상을 만드신 하나님과 사람 사이에도 영적인 법칙이 있습니다. 출처 : CCC한국대학생선교회
- 하와이 여행 2 - 무스비- 알로힐라니 호텔- 아릴랜드 빈티지 커피, 코나커피- 하와이 야경- Hy's steak house
- 하와이 여행 1 - 하와이안항공- 이올라니 궁전- 카메하메하 대왕의 동상- 주정부청사 및 주지사 관저- 랍스터킹
1. Smoothing method (exponential smoothing)1) 분석 먼저, 앞의 분석에서는 N개의 sample을 사용해서 평균 값을 구했다. 이외에 전체 데이터에 가중치를 곱해서 smoothing을 하는 방법이 있는데, 이 방법을 exponential smoothing이라고 한다. 시점 T에는 1의 가중치를, 이후 시점 T-1에는 lambda의 가중치, 시점 T-2에는 lambda^2의 가중치를 주어, 과거의 값을 더 반영하지 않고, 최근 값을 더 반영하여 smoothing하는 방법이다.Smoothing constant a는 0과 1 사이이며, 위 식은 moving average와 달리, 이전 값을 저장하지 않아도 되기 때문에 memory 효율 면에서 유횽하다. (Deep learni..
1. Smoothing method (moving average)1) 분석보통 시계열의 데이터는 noisy한 경우가 있다. Noisy한 데이터를 보면 어느 시간에서 드러나는 계절성과 패턴을 파악하는 것이 어렵다. 따라서, noisy한 데이터를 제거함으로써 시계열의 시간에 따른 패턴을 파악하는 것이 필요하다. 보통 moving average와 exponential smoothing 방법이 사용된다. 가장 먼저, moving average에 대한 개념부터 파악해보자. 먼저 시계열 X가 horizontal pattern을 갖는다고 가정하면, simple moving average는 다음과 같이 계산된다. a는 white noise로 평균이 0이고 표준편차가 sigma인 normal distribution을 따..
Neural Architecture Search : A surveyhttp://www.jmlr.org/papers/volume20/18-598/18-598.pdf Abstract딥러닝이 image recognition, speech recognition, machine translation과 같은 다양한 task에 여러해동안 특출한 진보를 이루어냈다. 이 진보에 대해 중요한 하나의 요소는 새로운 neural architecture이다. 현재 사용되는 architectures들은 human experts가 manually 하게 디자인을 한 것임으로, 시간 소모가 크고, 오류가 발생하기 쉽다. 이런 이유 때문에, 자동적으로 neural architecture search를 하는 분야에 대해 관심이 생기고 있..
Neural architecture search with reinforcement learninghttps://arxiv.org/pdf/1611.01578.pdf Abstract Neural network는 이미지, speech, natural language understanding의 많은 어려운 학습 task에 강력하고 flexible한 모델인데, 디자인하는 것이 힘들다. (Machine learning에 비해서 훨씬 많은 hyper-parameter를 tuning해야한다. 이 tuning이 성능에 크게 영향을 준다.) 이 논문에서는 validation set에서 정확성을 최대화하는 reinforcement learning 기반의 모델 hyper-parameter search RNN을 제안한다. (무..
Meta-learning for semi-supervised few-shot classification (ICLR, 2018) Abstract"In this work, we advance this few-shot classification paradigm towards a scenario where unlabeled examples are also available within each episode....To address this paradigm, we propose novel extensions of Prototypical Networks that are augmented with the ability to use unlabeled examples when producing prototypes."U..