Notice
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- GaN
- Fast RCNN
- GAN #StyleCLIP #YAI 11기 #연세대학교 인공지능학회
- cv
- YAI 10기
- 강화학습
- rl
- 3D
- Perception 강의
- YAI 9기
- YAI 8기
- YAI 11기
- Googlenet
- 컴퓨터 비전
- transformer
- CS224N
- CS231n
- PytorchZeroToAll
- 연세대학교 인공지능학회
- cl
- CNN
- Faster RCNN
- YAI
- RCNN
- NLP
- VIT
- NLP #자연어 처리 #CS224N #연세대학교 인공지능학회
- 컴퓨터비전
- 자연어처리
- nerf
Archives
- Today
- Total
목록Roberta (1)
연세대 인공지능학회 YAI
[논문 리뷰] RoBERTa: A Robustly Optimized BERT Pretraining Approach
RoBERTa: A Robustly Optimized BERT Pretraining Approach * YAI 9기 진현빈님이 창의자율과제 NLP팀에서 작성한 글입니다 https://arxiv.org/abs/1907.11692 RoBERTa: A Robustly Optimized BERT Pretraining Approach Language model pretraining has led to significant performance gains but careful comparison between different approaches is challenging. Training is computationally expensive, often done on private datasets of differ..
자연어처리 : NLP/Transformer based
2022. 7. 23. 14:45