Notice
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- CS224N
- CNN
- 강화학습
- transformer
- PytorchZeroToAll
- Fast RCNN
- YAI 10기
- RCNN
- Perception 강의
- Faster RCNN
- YAI 11기
- rl
- cv
- 자연어처리
- Googlenet
- YAI 9기
- YAI 8기
- GaN
- GAN #StyleCLIP #YAI 11기 #연세대학교 인공지능학회
- VIT
- YAI
- nerf
- CS231n
- NLP
- NLP #자연어 처리 #CS224N #연세대학교 인공지능학회
- 컴퓨터 비전
- 3D
- cl
- 컴퓨터비전
- 연세대학교 인공지능학회
Archives
- Today
- Total
목록9기 (1)
연세대 인공지능학회 YAI
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
분류: NLP 생성일: 2021년 7월 20일 오후 5:41 연도: 2018 저자: Devlin, J., Chang, M. W., Lee, K., & Toutanova, K. 진행 상황: Modifying 키워드: Attention, Bidirectional, Transformer Devlin, J., Chang, M. W., Lee, K., & Toutanova, K. (2018). BERT: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805. Overall Summary BERT는 구글이 공개한 NLP 모델로, 언어 표현(language representati..
자연어처리 : NLP/Transformer based
2022. 2. 8. 22:12