일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- 논문 리뷰
- 머신러닝
- optimizer
- Segmentation
- 논문구현
- Semantic Segmentation
- Python
- ViT
- Self-supervised
- object detection
- 논문리뷰
- programmers
- 파이토치
- transformer
- 파이썬
- 프로그래머스
- 코드구현
- 알고리즘
- 딥러닝
- pytorch
- Paper Review
- opencv
- Ai
- 옵티마이저
- cnn
- 코딩테스트
- 논문
- 인공지능
- Convolution
- Computer Vision
Archives
- Today
- Total
목록Gradient (1)
Attention please
[딥러닝] 옵티마이저(optimizer) - NAG
2022.09.30 - [딥러닝] - 옵티마이저(optimizer) - Momentum 옵티마이저(optimizer) - Momentum 2022.09.29 - [딥러닝] - 옵티마이저(optimizer) - SGD 옵티마이저(optimizer) - SGD 옵티마이저란 model을 학습시키기 위해 설정해주어야 하는 작업입니다. SGD를 제외한 옵티마이저들은 모두 SGD의 응용으로.. smcho1201.tistory.com momentum기법은 현재 위치에서 관성과 gradient의 반대방향을 합하였습니다. NAG는 momentum을 공격적인 방식으로 변형한 것입니다. NAG NAG는 Nesterov Accelated Gradient의 줄임말입니다. 위 사진과 같이 원래 gradient step에 mome..
딥러닝/DNN
2022. 9. 30. 00:18