TigerCow.Door


안녕하세요. 문범우입니다.

오늘은 머신러닝에서 사용되는 Linear Regression에 대해서 알아보겠습니다.


* 해당 포스트의 모든 내용은 김성훈 교수님의 '모두를 위한 딥러닝'을 바탕으로 제작되었습니다.

관련한 상세 내용은 아래 링크를 참고해주세요.

https://hunkim.github.io/ml/




1. 선형 회귀(Linear Regression)


먼저 지난 포스팅에서 우리는 학습(Learning)을 기준으로하여 구별되는 Supervised learning과 Unsupervised learning에 대해서 알아보았습니다.

그리고 Supervised learning에서 다루는 regression 문제가 있다고 말씀드렸습니다.




위와 같은 데이터가 존재합니다.

그리고 그 데이터들을 학습시킨 모델 R이 있다고 합시다.

여기서 우리가 Regression을 사용한다는 것은, x = 7 일 때의 y 값을 학습된 데이터들을 바탕으로 알아내는 것입니다.

그리고 Linear라고 하는 것은 Linear한, 즉 선형적인 모델이 우리가 가진 데이터와 맞을 것이다라고 가설을 세우는 것을 의미합니다. 


앞으로 더 알아볼 선형 회귀(Linear Regression)은 통계학에서도 매우 중요하게 다루어지고 있고 현재도 중요하게 많이 사용되고 있습니다.



2. Linear Regression의 Hypothesis(선형 회귀의 가설)


위에서 말씀드린 것처럼 regression 모델에서는 데이터를 학습시킵니다. 우리는 학습되는 데이터로써 어떠한 가설이 가장 정확할지를 알아야 합니다.  그리고 우리는 아래와 같이 가설을 세우게 됩니다.


H(x) = Wx + b


그런데, 어떤 가설이 정확하고 좋은지 어떻게 판별할까요? 이러한 것을 판별하기 위해, Cost function이 있습니다.

일반적으로 아래와 같은 Cost function이 있습니다.


(H(x) - y)^2


위의 함수에 대해 각 x에 대한 모든 Cost function 값을 합하여 Cost를 계산합니다.

그리고 이에 따라 Linear Regression에서의 목표는 이러한 Cost를 최소화 하는 것을 목표로 합니다.




이렇게 해서 Linear Regression에 대해 간략히 알아보았습니다.

다음 포스팅에서는 위에서 알아본 cost를 최소화 하는 방법에 대해서 알아보겠습니다.

블로그 이미지

Tigercow.Door

Back-end / Python / Database / AI / Algorithm / DeepLearning / etc

댓글을 달아 주세요