일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- 딥러닝
- 옵티마이저
- Paper Review
- 머신러닝
- transformer
- pytorch
- 논문리뷰
- opencv
- object detection
- Computer Vision
- 파이토치
- Convolution
- 논문 리뷰
- ViT
- programmers
- Semantic Segmentation
- Ai
- optimizer
- 파이썬
- 코드구현
- 논문구현
- cnn
- 인공지능
- 논문
- Segmentation
- 알고리즘
- 프로그래머스
- Self-supervised
- 코딩테스트
- Python
Archives
- Today
- Total
목록잔차제곱합 (1)
Attention please
[ISLR] 단순선형회귀 ; 잔차제곱합(residual sum of squares)을 최소화하자!
단순선형회귀란? 통계학습을 위한 도구는 정말 다양합니다. 그 중에서도 단순선형회귀모형은 지도학습 방법 중 가장 간단하면서도 base가 되는 모형입니다. 이 기법은 하나의 설명변수 $ X $에 기초하여 양적 반응변수 $ Y $를 예측하죠. 단순선형회귀는 $ X $ 와 $ Y $ 사이에 선형적 상관관계가 있다고 가정합니다. 이때 선형적 상관관계가 무엇인지 간단하게 알아보도록 합시다. $$ Y \approx \beta_{0} + \beta_{1}X $$ 위 식은 수학적으로 선형적 상관관계를 나타낸 것이며, $ X $에 대한 $ Y $의 회귀라고 합니다. 만약 TV광고라는 변수를 통해 sales(판매량)을 추정하고 싶다면 $ sales \approx \beta_{0} + \beta_{1} \times TV $ ..
ISLR
2023. 5. 5. 21:53