Notice
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- GaN
- CNN
- cv
- Googlenet
- 자연어처리
- cl
- Perception 강의
- GAN #StyleCLIP #YAI 11기 #연세대학교 인공지능학회
- 컴퓨터 비전
- 컴퓨터비전
- Fast RCNN
- NLP
- transformer
- Faster RCNN
- YAI 10기
- VIT
- CS231n
- CS224N
- rl
- YAI
- YAI 8기
- PytorchZeroToAll
- NLP #자연어 처리 #CS224N #연세대학교 인공지능학회
- 3D
- 연세대학교 인공지능학회
- YAI 11기
- 강화학습
- nerf
- RCNN
- YAI 9기
Archives
- Today
- Total
목록전체 글 (57)
연세대 인공지능학회 YAI
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
분류: NLP 생성일: 2021년 7월 20일 오후 5:41 연도: 2018 저자: Devlin, J., Chang, M. W., Lee, K., & Toutanova, K. 진행 상황: Modifying 키워드: Attention, Bidirectional, Transformer Devlin, J., Chang, M. W., Lee, K., & Toutanova, K. (2018). BERT: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805. Overall Summary BERT는 구글이 공개한 NLP 모델로, 언어 표현(language representati..
자연어처리 : NLP/Transformer based
2022. 2. 8. 22:12