Notice
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- PytorchZeroToAll
- 3D
- YAI 9기
- cv
- 컴퓨터비전
- YAI 10기
- YAI
- 강화학습
- CS224N
- YAI 8기
- CNN
- Googlenet
- GAN #StyleCLIP #YAI 11기 #연세대학교 인공지능학회
- transformer
- rl
- RCNN
- NLP #자연어 처리 #CS224N #연세대학교 인공지능학회
- VIT
- GaN
- YAI 11기
- cl
- 연세대학교 인공지능학회
- nerf
- 컴퓨터 비전
- 자연어처리
- CS231n
- Faster RCNN
- Fast RCNN
- Perception 강의
- NLP
Archives
- Today
- Total
목록Deep Learning for Computer Vision (1)
연세대 인공지능학회 YAI
[Deep Learning for Computer Vision] Training Neural Network / Recurrent Network / Attention
** YAI 10기 김성준님이 기초심화팀에서 작성한 글입니다. 1. Lecture 11: Training Neural Networks II Learning Rate Schedules Learning rate 를 너무 큰 값으로 설정하면 밖으로 튀어나가 버리고(explosion), 너무 작은 값으로 설정하면 학습 속도가 매우 느려지므로 적절한 값으로 설정하는 것이 중요하다. 하지만 이게 쉽지는 않은데... 이를 해결하기 위해 learning rate 를 특정 epoch 마다 규칙 적으로 감소시키는 방법이 있다. 위의 사진으로부터 learning rate 가 감소하는 지점마다 loss 도 계단 모양으로 감소함을 확인할 수 있다. 하지만 이 방식은 learning rate 를 얼마마다 감소시켜야 하는지 등을 ..
강의 & 책
2022. 8. 27. 15:51