Notice
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 컴퓨터 비전
- 자연어처리
- CS231n
- transformer
- YAI 8기
- Googlenet
- YAI 10기
- GAN #StyleCLIP #YAI 11기 #연세대학교 인공지능학회
- GaN
- NLP
- Fast RCNN
- cv
- 컴퓨터비전
- Perception 강의
- YAI 9기
- CNN
- Faster RCNN
- PytorchZeroToAll
- 강화학습
- cl
- RCNN
- YAI
- YAI 11기
- VIT
- 3D
- NLP #자연어 처리 #CS224N #연세대학교 인공지능학회
- nerf
- rl
- 연세대학교 인공지능학회
- CS224N
Archives
- Today
- Total
목록multimodal (1)
연세대 인공지능학회 YAI
[논문 리뷰] Variational AutoEncoder(VAE)
Variational AutoEncoder(VAE) YAI 9기 박준영님이 창의자율과제 Multimodal팀에서 작성한 글입니다. Deep generative learning 딥러닝을 배제하고 무언가를 생성하는 모델을 생각해보자. 그 무언가에 해당하는 modality는 시각적인 정보가 될 수도 있고, 사람이나 다양한 사물, 동물의 소리를 모사한 형태의 음성 정보가 될 수도 있으며 혹은 획기적인 디자인이나 심금을 울리는 글 형태가 될 수도 있다. 인간은 생물학적인 발전을 거치면서 자연스럽게 무언가를 ‘인식’하거나 ‘분류’하는 능력을 가지게 된다. 이는 assimilation과 accomodation을 거치며 내적으로 여러 가지 자극들에 대해 범주화가 자동으로 진행되기 때문이다. 이처럼 인간은 classif..
Multimodal
2022. 7. 23. 15:45