선형 회귀와 최소제곱법
선형 회귀 linear regression 선형 회귀는 종속 변수 y와 한 개 이상의 독립변수 X와의 선형 상관관계를 모델링하는 회기 분석 기법이다. 한 개의 독립변수가 있으면 단순 선형 회귀, 둘 이상이면 다중 선형 회귀라한다. (x값에 따라서 y가 변하기 때문에 y는 종속변수이고, x는 독립적으로 변할 수 있어서 독립변수라 한다.) 선형 회귀는 선형 예측 함수를 사용해 회귀식을 모델링하며, 알려지지 않은 파라미터는 데이터로부터 추정할 수 있다. 즉 데이터를 수집해 예측 선형 함수를 만들고(선의 방향을 설정하고), 함수를 기반으로 다음을 예측할 수 있다. ex) 학습시간에 따른 성적 선형 회귀는 딥러닝에서 사용되는 계산 원리 중 하나기 때문에 반드시 이해할 필요가 있다, 선형은 직선이기 때문에 일차함수..
Tech/Deep Learning
2020. 4. 8. 14:20
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- swift5
- RX
- wwdc
- Animation
- swiftUI
- stanford SwiftUI
- 책 후기
- 애니메이션
- 딥러닝
- 책 추천
- objc
- SWIFT
- Deep learning
- 문자열
- objective-c
- 책
- leetcode
- Xcode
- Algorithm
- string
- 스위프트UI
- iOS SwiftUI
- ARC
- ios
- 독서
- 알고리즘
- rxswift
- 머신러닝
- ReactiveX
- 스위프트
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
글 보관함