일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- YAI 8기
- CNN
- Googlenet
- NLP
- Perception 강의
- Faster RCNN
- CS231n
- cl
- 연세대학교 인공지능학회
- transformer
- Fast RCNN
- 자연어처리
- 컴퓨터 비전
- 3D
- 컴퓨터비전
- nerf
- YAI
- YAI 11기
- rl
- cv
- YAI 9기
- CS224N
- VIT
- 강화학습
- YAI 10기
- GAN #StyleCLIP #YAI 11기 #연세대학교 인공지능학회
- NLP #자연어 처리 #CS224N #연세대학교 인공지능학회
- GaN
- RCNN
- PytorchZeroToAll
- Today
- Total
목록연세대학교 인공지능학회 (46)
연세대 인공지능학회 YAI
R-CNN + Fast R-CNN + Faster R-CNN (3) ** YAI 9기 조용기님이 비전 논문심화팀에서 작성한 글입니다. Faster R-CNN Papers with Code - Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks 1 Introduction 이 논문이 쓰인 시점에 탐지 신경망 시스템에 존재하는 병목은 region proposal이었다. Selective Search는 CPU에서 연산되어, Fast R-CNN의 탐지 신경망에 비해 매우 느리다. EdgeBoxes는 proposal의 품질과 속도 사이 최상의 균형을 이루었지만 여전히 탐지 신경망만큼의 실행 시간을 필요로 한다. CNN이 GPU..
기계 번역 (Machine Translation) ** YAI 9기 전은지님이 자연어강의팀에서 작성한 글입니다. 1. Introduction Machine translation은 어떤 한 언어의 $x$라는 문장을 또다른 언어의 $y$라는 문장으로 번역하는 태스크를 의미합니다. 이때, $x$의 언어를 source language라고 하고, $y$의 언어를 target language라고 부릅니다. 과거에는 rule-based와 dictionary lookup table 등의 방식을 이용했지만, 문법(grammar)이나 의미론(semantic) 등의 이유로 인해서 정보를 잘 전달하지 못했다는 한계가 존재합니다. 이러한 기계 번역의 역사를 살펴보면 아래와 같습니다. 2. Statistical MT (SMT) ..
R-CNN + Fast R-CNN + Faster R-CNN ** YAI 9기 조용기님이 비전 논문심화팀에서 작성한 글입니다. Fast R-CNN Papers with Code - Fast R-CNN Explained 1. Introduction 이미지 분류 및 객체 탐지에서 Deep ConvNet의 활약으로 정확성은 올라갔으나, 복잡도 또한 증가해 모델의 처리 속도가 매우 느려졌다. 이러한 복잡성은 탐지 작업이 객체의 정확한 localization을 요구하기에 발생했고, 이는 두 가지 주요한 문제를 만들었다. 수많은 후보 객체의 proposal이 각각 CNN에서 처리되어야 한다. 이러한 후보들은 대략적인 localization만을 제공 하며 정확한 localization을 위해 개선을 필요로 한다. 이..
R-CNN + Fast R-CNN + Faster R-CNN ** YAI 9기 조용기님이 비전 논문심화팀에서 작성한 글입니다. R-CNN Papers with Code - R-CNN Explained 1. Introduction 다양한 시각적 인식 작업에서 SIFT와 HOG가 많이 사용되었지만, 최근 2010 ~ 2012년 사이 큰 발전이 없었다. SIFT와 HOG보다 시각적 인식에 더 유능한 feature를 계산하는 hierarchical, multi-scale process가 존재하는데, 역전파와 확률적 경사하강법(SGD)을 사용한 LeCun et al.의 convolution neural network(CNN)가 그렇다. CNN은 1990년대에 활발하게 사용되다 support vector machi..
Neural-Symbolic VQA: Disentangling Reasoning from Vision and Language Understanding 본 논문은 NeurIPS 2018에 발표되었으며, spotlight을 받았습니다. 본 포스팅은 YAI 기민주, 전원석님의 보고서를 바탕으로 작성되었습니다. 참고자료 논문 저자들의 발표 영상 본 논문은 아래 그림과 같이 주어진 이미지를 인식해 질문에 적절한 답을 내놓아야 하는 Visual Question-Answering (VQA) 문제에 관해 다루고 있다. 이러한 태스크는 단순한 이미지 인식 (perception)을 넘어 추론 (reasoning)을 필요로 한다. 본 논문은 기존의 뉴럴넷 기반의 End-to-End 방식의 접근법들이 가지고 있는 한계점을 극..
분류: NLP 생성일: 2021년 7월 20일 오후 5:41 연도: 2018 저자: Devlin, J., Chang, M. W., Lee, K., & Toutanova, K. 진행 상황: Modifying 키워드: Attention, Bidirectional, Transformer Devlin, J., Chang, M. W., Lee, K., & Toutanova, K. (2018). BERT: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805. Overall Summary BERT는 구글이 공개한 NLP 모델로, 언어 표현(language representati..