일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 딥러닝
- programmers
- 논문 리뷰
- Convolution
- transformer
- 알고리즘
- Computer Vision
- Self-supervised
- 코딩테스트
- Semantic Segmentation
- Ai
- optimizer
- cnn
- 파이썬
- 머신러닝
- Segmentation
- ViT
- 논문구현
- pytorch
- 코드구현
- 프로그래머스
- 파이토치
- opencv
- 논문리뷰
- 인공지능
- 논문
- 옵티마이저
- object detection
- Paper Review
- Python
- Today
- Total
목록딥러닝 (22)
Attention please
2022.10.27 - [딥러닝] - Batch Normalization (배치정규화) Batch Normalization (배치정규화) 2022.10.01 - [딥러닝] - LeCun / Xavier / He 초기값 설정 - 표현력 제한, vanishing gradient문제 보완 LeCun / Xavier / He 초기값 설정 - 표현력 제한, vanishing gradient문제 보완 2022.09.30 - [딥러닝] -.. smcho1201.tistory.com 이전 글에서는 Batch Normalization층에 대해 알아보았습니다. 이번 글에서는 Batch Norm층의 장점 중 하나인 overfitting이란 무엇이고, overfitting을 억제하기 위한 다른 2가지 방법을 알아보겠습니다. ..
2022.10.01 - [딥러닝] - LeCun / Xavier / He 초기값 설정 - 표현력 제한, vanishing gradient문제 보완 LeCun / Xavier / He 초기값 설정 - 표현력 제한, vanishing gradient문제 보완 2022.09.30 - [딥러닝] - 옵티마이저(optimizer) - Adam 옵티마이저(optimizer) - Adam 2022.09.30 - [딥러닝] - 옵티마이저(optimizer) - RMSProp 옵티마이저(optimizer) - RMSProp 2022.09.30 - [딥러닝] - 옵티.. smcho1201.tistory.com 이전 글에서는 표현력 제한과 vanishing gradient문제를 보완하기 위해 초기값을 어떻게 설정해야 하는지..
이 카테고리에서 다룰 것은 RNN입니다. 자연어를 처리하기 위해 어떤 식으로 텍스트들을 전처리를 하며, 어떻게 층이 구성되는지 알아보겠습니다. 하지만 이번 글에서 설명할 시소러스는 머신러닝과는 거리가 멀기도 하니, 시소러스에 대해서는 머신러닝이 왜 필요한 것인지 아는 정도로 끝내도록 하겠습니다. 시소러스 시소러스란 단어 사이의 상위와 하위 관계를 트리로 체계화 한것을 의미합니다. 예를 들어 car의 하위관계에 속하는 단어는 SUV가 있을 것이며, 상위관계에 속하는 단어에는 motor vehicle이 있을 것입니다. 다음과 같이 단어들의 관계를 트리구조로 나타냅니다. 시소러스의 문제점 하지만 위 시소러스에게는 큰 문제점이 있습니다. 일단 시소러스는 머신러닝과 같은 기법으로 만드는 것이 아닙니다. 모두 사람..
2022.09.30 - [딥러닝] - 옵티마이저(optimizer) - Adam 옵티마이저(optimizer) - Adam 2022.09.30 - [딥러닝] - 옵티마이저(optimizer) - RMSProp 옵티마이저(optimizer) - RMSProp 2022.09.30 - [딥러닝] - 옵티마이저(optimizer) - AdaGrad 옵티마이저(optimizer) - AdaGrad 2022.09.30 - [딥러닝].. smcho1201.tistory.com 지금까지 optimizer 기법들에 대해 살펴보았습니다. 이번 글에서는 학습을 시키기 전 가중치값들을 어떻게 초기화해야 하는지에 대해 살펴보겠습니다. 가중치 초기값 설정 왜 가중치를 초기화 하는 것이 중요할까요? 사실 많은 사람들이 앞서 설명드..
2022.09.30 - [딥러닝] - 옵티마이저(optimizer) - RMSProp 옵티마이저(optimizer) - RMSProp 2022.09.30 - [딥러닝] - 옵티마이저(optimizer) - AdaGrad 옵티마이저(optimizer) - AdaGrad 2022.09.30 - [딥러닝] - 옵티마이저(optimizer) - NAG 옵티마이저(optimizer) - NAG 2022.09.30 - [딥러닝] - 옵티마.. smcho1201.tistory.com 지난 글에서는 RMSProp기법에 대해 알아보았습니다. 이번 글에서는 가장 많이 쓰인다는 Adam에 대해 알아보겠습니다. Adam 지금까지 알아본 optimizer기법들은 가장 기본인 SGD기법의 문제점들을 보완하기 위해 만들어졌었다. ..
2022.09.30 - [딥러닝] - 옵티마이저(optimizer) - AdaGrad 옵티마이저(optimizer) - AdaGrad 2022.09.30 - [딥러닝] - 옵티마이저(optimizer) - NAG 옵티마이저(optimizer) - NAG 2022.09.30 - [딥러닝] - 옵티마이저(optimizer) - Momentum 옵티마이저(optimizer) - Momentum 2022.09.29 - [딥러닝] - 옵티.. smcho1201.tistory.com 이전 글에서는 learning rate를 각 스텝마다 변수에 맞게 조절해나가는 optimizer기법인 AdaGrad에 대해 알아보았습니다. 이번에는 AdaGrad에서의 문제점들을 보완한 RMSProp 기법에 대해 알아보겠습니다. RMS..