일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- nerf
- rl
- 자연어처리
- YAI 8기
- CS231n
- YAI 9기
- YAI 11기
- transformer
- GaN
- 강화학습
- Fast RCNN
- YAI
- 연세대학교 인공지능학회
- CNN
- Faster RCNN
- Googlenet
- GAN #StyleCLIP #YAI 11기 #연세대학교 인공지능학회
- CS224N
- cl
- 컴퓨터비전
- VIT
- PytorchZeroToAll
- cv
- NLP
- NLP #자연어 처리 #CS224N #연세대학교 인공지능학회
- 컴퓨터 비전
- YAI 10기
- Perception 강의
- RCNN
- 3D
- Today
- Total
목록자연어처리 : NLP/Transformer based (3)
연세대 인공지능학회 YAI
RoBERTa: A Robustly Optimized BERT Pretraining Approach * YAI 9기 진현빈님이 창의자율과제 NLP팀에서 작성한 글입니다 https://arxiv.org/abs/1907.11692 RoBERTa: A Robustly Optimized BERT Pretraining Approach Language model pretraining has led to significant performance gains but careful comparison between different approaches is challenging. Training is computationally expensive, often done on private datasets of differ..
Transformer * YAI 9기 윤수진님이 창의자율과제 NLP팀에서 작성한 글입니다. 논문 소개 Attention Is All You Need Transformer, 고려대학교 산업경영공학과 일반대학원 Unstructured Data Analysis, Youtube The Illustrated Transformer, Jay Alammar, Github Attention Is All You Need The dominant sequence transduction models are based on complex recurrent or convolutional neural networks in an encoder-decoder configuration. The best performing models a..
분류: NLP 생성일: 2021년 7월 20일 오후 5:41 연도: 2018 저자: Devlin, J., Chang, M. W., Lee, K., & Toutanova, K. 진행 상황: Modifying 키워드: Attention, Bidirectional, Transformer Devlin, J., Chang, M. W., Lee, K., & Toutanova, K. (2018). BERT: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805. Overall Summary BERT는 구글이 공개한 NLP 모델로, 언어 표현(language representati..