일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 컴퓨터 비전
- Faster RCNN
- 연세대학교 인공지능학회
- transformer
- cl
- cv
- NLP #자연어 처리 #CS224N #연세대학교 인공지능학회
- CNN
- GaN
- Fast RCNN
- 자연어처리
- YAI
- YAI 9기
- 컴퓨터비전
- YAI 10기
- nerf
- YAI 8기
- GAN #StyleCLIP #YAI 11기 #연세대학교 인공지능학회
- PytorchZeroToAll
- Googlenet
- 3D
- rl
- NLP
- VIT
- Perception 강의
- YAI 11기
- 강화학습
- CS231n
- RCNN
- CS224N
- Today
- Total
목록연세대학교 인공지능학회 (46)
연세대 인공지능학회 YAI
Mask R-CNN * YAI 9기 박찬혁님이 비전 논문 심화팀에서 작성한 글입니다. 논문 Mask R-CNN Instance Segmentation 이번 논문인 Mask RCNN은 Instance segmentation을 task로 한다. Deeplab이 목적으로 했던 semantic segmentation은 이미지 속의 객체들에 대한 segmentation과 classification은 진행하지만 서로 다른 객체가 같은 클래스에 속해있다면 구분하지 못했다. 하지만 Instance segmentation은 오른쪽의 사진과 같이 같은 클래스의 다른 객체들을 다 구분할 수 있다. R-CNN R-CNN은 CNN을 object detection에 최초로 적용시킨 모델이다. RCNN은 두가지 stage로 나누어..
DNN 기초 ** YAI 10기 황채연님이 기초 심화 2팀에서 작성한 글입니다. Introduction 지난 세선에서는 선형 분류기로 이미지를 분류하는 개념까지 다뤄보았다. 이미지가 가장 잘 분류되도록 기울기를 계속 갱신한다는 개념이었다. 그렇다면, 구체적으로 기울기 갱신은 어떻게 이루어지는가? Loss fuction Loss function은 손실을 정량적으로 알려주는 함수로, 어떤 기울기가 최선인지 결정하기 위해 loss를 컴퓨터가 자동 정량화하도록 고안된 함수이다. 인간은 좌측 그림과 loss 수치를 보고서 자동차, 고양이, 개구리 순으로 정확하게 분류되었다는 것을 파악할 수 있다. 이 판단 작업을 컴퓨터가 수행하기 위해 우측과 같은 식을 입력한다. 자세히 뜯어보면, N개의 x(이미지 픽셀 값)과 ..
Instant Neural Graphics Primitives with Multiresolution Hash Encoding https://arxiv.org/abs/2201.05989 Instant Neural Graphics Primitives with a Multiresolution Hash Encoding Neural graphics primitives, parameterized by fully connected neural networks, can be costly to train and evaluate. We reduce this cost with a versatile new input encoding that permits the use of a smaller network without sa..
Conv-TasNet: Surpassing Ideal Time-Frequency magnitude Masking for Speech Separation https://arxiv.org/abs/1809.07454 Conv-TasNet: Surpassing Ideal Time-Frequency Magnitude Masking for Speech Separation Single-channel, speaker-independent speech separation methods have recently seen great progress. However, the accuracy, latency, and computational cost of such methods remain insufficient. The ma..
StarGAN: Unified Generative Adversarial Networks for Multi-Domain Image-to-Image Translation YAI 8기 안용준님이 GAN팀에서 리뷰하신 논문입니다. 0. Abstract 현재까지의 연구는 2개 도메인에서의 image2image translation이었다. 2개 이상의 도메인에서 scalability, robustness가 제한적이다. 왜냐하면 모든 도메인 pair마다 모델이 설계되어야 하기 때문이다. 이를 개선하고자, 모든 도메인 간 변환을 한 모델로 가능하게 하는 starGAN을 고안하였다. 이러한 통합 모델은 여러 개의 데이터셋들을 동시에 학습시킬 수 있다. 기존의 모델들보다 생성 이미지 퀄리티가 좋을 뿐만 아니라, 원하는 도..
** YAI 10기 김성준님이 기초심화팀에서 작성한 글입니다. 1. Lecture 11: Training Neural Networks II Learning Rate Schedules Learning rate 를 너무 큰 값으로 설정하면 밖으로 튀어나가 버리고(explosion), 너무 작은 값으로 설정하면 학습 속도가 매우 느려지므로 적절한 값으로 설정하는 것이 중요하다. 하지만 이게 쉽지는 않은데... 이를 해결하기 위해 learning rate 를 특정 epoch 마다 규칙 적으로 감소시키는 방법이 있다. 위의 사진으로부터 learning rate 가 감소하는 지점마다 loss 도 계단 모양으로 감소함을 확인할 수 있다. 하지만 이 방식은 learning rate 를 얼마마다 감소시켜야 하는지 등을 ..
GDumb A Simple Approach that Questions Our Progres * YAI 9기 조용기 님이 작성한 글입니다. 논문소개 GitHub - drimpossible/GDumb: Simplified code for our paper "GDumb: A Simple Approach that Questions Our Progress in Continual Learning". Easily extensible to various settings, datasets and architectures.