일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- 논문 리뷰
- optimizer
- 인공지능
- Computer Vision
- 논문
- 딥러닝
- transformer
- pytorch
- 코딩테스트
- Python
- Ai
- cnn
- 머신러닝
- Segmentation
- 프로그래머스
- Paper Review
- 파이토치
- 파이썬
- Semantic Segmentation
- 논문구현
- object detection
- Convolution
- opencv
- 논문리뷰
- 코드구현
- ViT
- 알고리즘
- Self-supervised
- 옵티마이저
- programmers
- Today
- Total
목록Ai (9)
Attention please
AIFactory [안내] 2022 농넷 농산물 가격 변동률 예측 AI 경진대회 aifactory.space 이번 프로젝트는 AIfactory 플랫폼에서 진행하는 대회 중 농산물 가격을 예측하는 것입니다. 다양한 농산물 품목들에 대해 각각 데이터가 준비되어있지만, 이번 글에서는 0번 품목의 데이터만 다루도록 하겠습니다. 또한 성능을 확인하기 위해서 test 데이터는 사용하지 않을 것이며, train 데이터만을 사용하도록 하겠습니다. Data 이번 글에서 다룰 데이터는 0번째 품목의 훈련데이터이며, 2013/01/01 ~ 2016/12/31 의 데이터가 저장되어있습니다. 위의 사진과 같이 총 1461개의 행과 58개의 열로 이루어져있습니다. 이중 예측해야하는 target 변수는 "해당일자_전체평균가격(원)..
이번에 구현할 논문은 "VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION" 입니다. 이번 논문을 구현하기 위해 사용한 프레임 워크는 Pytorch 입니다. The Dataset 논문에서 사용한 데이터셋은 저번 글에서 소개한 ImageNet dataset입니다. 하지만 너무 많은 양의 데이터와 분류때문에 학습시간이 오래 걸릴 것을 고려하여 저번과 동일하게 CIFAR-10 데이터셋을 사용하도록 하겠습니다. (imagenet 과 cifar-10 데이터셋에 대한 설명은 저번 글에 남겨놓았습니다.) Depth 이 논문에서 중요시하는 것은 모델의 깊이 입니다. 모델의 깊이가 깊어지면 깊어질 수록 성능이 좋아진다는 것입니다. 즉, 이미지의 대한 정..
2022.09.30 - [딥러닝] - 옵티마이저(optimizer) - RMSProp 옵티마이저(optimizer) - RMSProp 2022.09.30 - [딥러닝] - 옵티마이저(optimizer) - AdaGrad 옵티마이저(optimizer) - AdaGrad 2022.09.30 - [딥러닝] - 옵티마이저(optimizer) - NAG 옵티마이저(optimizer) - NAG 2022.09.30 - [딥러닝] - 옵티마.. smcho1201.tistory.com 지난 글에서는 RMSProp기법에 대해 알아보았습니다. 이번 글에서는 가장 많이 쓰인다는 Adam에 대해 알아보겠습니다. Adam 지금까지 알아본 optimizer기법들은 가장 기본인 SGD기법의 문제점들을 보완하기 위해 만들어졌었다. ..
2022.09.30 - [딥러닝] - 옵티마이저(optimizer) - AdaGrad 옵티마이저(optimizer) - AdaGrad 2022.09.30 - [딥러닝] - 옵티마이저(optimizer) - NAG 옵티마이저(optimizer) - NAG 2022.09.30 - [딥러닝] - 옵티마이저(optimizer) - Momentum 옵티마이저(optimizer) - Momentum 2022.09.29 - [딥러닝] - 옵티.. smcho1201.tistory.com 이전 글에서는 learning rate를 각 스텝마다 변수에 맞게 조절해나가는 optimizer기법인 AdaGrad에 대해 알아보았습니다. 이번에는 AdaGrad에서의 문제점들을 보완한 RMSProp 기법에 대해 알아보겠습니다. RMS..
2022.09.30 - [딥러닝] - 옵티마이저(optimizer) - NAG 옵티마이저(optimizer) - NAG 2022.09.30 - [딥러닝] - 옵티마이저(optimizer) - Momentum 옵티마이저(optimizer) - Momentum 2022.09.29 - [딥러닝] - 옵티마이저(optimizer) - SGD 옵티마이저(optimizer) - SGD 옵티마이저란 model을 학습.. smcho1201.tistory.com 지금까지 알아보았던 Momentum과 NAG는 기존의 SGD에서 관성을 적용시키는 방식으로 접근을 한 기법이였습니다. 하지만 이번에 알아볼 AdaGrad기법은 관성으로 접근하는 것이 아닌 learning rate를 조절하는 것으로 접근하는 기법입니다. AdaGr..
2022.09.30 - [딥러닝] - 옵티마이저(optimizer) - Momentum 옵티마이저(optimizer) - Momentum 2022.09.29 - [딥러닝] - 옵티마이저(optimizer) - SGD 옵티마이저(optimizer) - SGD 옵티마이저란 model을 학습시키기 위해 설정해주어야 하는 작업입니다. SGD를 제외한 옵티마이저들은 모두 SGD의 응용으로.. smcho1201.tistory.com momentum기법은 현재 위치에서 관성과 gradient의 반대방향을 합하였습니다. NAG는 momentum을 공격적인 방식으로 변형한 것입니다. NAG NAG는 Nesterov Accelated Gradient의 줄임말입니다. 위 사진과 같이 원래 gradient step에 mome..