Notice
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- VIT
- YAI 8기
- 강화학습
- CS231n
- YAI 10기
- Perception 강의
- YAI
- nerf
- 컴퓨터비전
- YAI 11기
- 컴퓨터 비전
- NLP
- Fast RCNN
- cl
- PytorchZeroToAll
- rl
- GAN #StyleCLIP #YAI 11기 #연세대학교 인공지능학회
- GaN
- 연세대학교 인공지능학회
- cv
- NLP #자연어 처리 #CS224N #연세대학교 인공지능학회
- YAI 9기
- Googlenet
- CNN
- Faster RCNN
- 3D
- CS224N
- RCNN
- transformer
- 자연어처리
Archives
- Today
- Total
목록Roberta (1)
연세대 인공지능학회 YAI
[논문 리뷰] RoBERTa: A Robustly Optimized BERT Pretraining Approach
RoBERTa: A Robustly Optimized BERT Pretraining Approach * YAI 9기 진현빈님이 창의자율과제 NLP팀에서 작성한 글입니다 https://arxiv.org/abs/1907.11692 RoBERTa: A Robustly Optimized BERT Pretraining Approach Language model pretraining has led to significant performance gains but careful comparison between different approaches is challenging. Training is computationally expensive, often done on private datasets of differ..
자연어처리 : NLP/Transformer based
2022. 7. 23. 14:45