모두를 위한 딥러닝 34

머신러닝(ML) #4_ Multi-variable linear regression

안녕하세요.지난 포스팅에서는 single-variable linear regression에 대해서 알아보았습니다.이번 포스팅에서는 multi-variable linear regression에 대해서 알아보도록 하겠습니다. * 해당 포스트의 모든 내용은 김성훈 교수님의 '모두를 위한 딥러닝'을 바탕으로 제작되었습니다.관련한 상세 내용은 아래 링크를 참고해주세요.https://hunkim.github.io/ml/ 1. Linear Regression(선형 회귀) 먼저 지난 포스팅에서 학습했던 내용을 잠깐 살펴보도록 하겠습니다.지난 포스팅에서는 선형 회귀, Linear Regression을 위해서 Hypothesis와 Cost function, Gradient descent algorithm등에 대해서 알아보..

텐서플로우(Tensor Flow) #3_ Linear Regression의 Cost 최소화 하기

안녕하세요. 문범우입니다.이번 포스팅에서는 지난 포스팅에서 구현했던 hypothesis 함수와 cost함수를 통해 Linear Regression에서의 cost를 최소화해보도록 하겠습니다. * 해당 포스트의 모든 내용은 김성훈 교수님의 '모두를 위한 딥러닝'을 바탕으로 제작되었습니다.관련한 상세 내용은 아래 링크를 참고해주세요.https://hunkim.github.io/ml/ 1. Simplified hypothesis 우리가 직접 텐서플로우를 사용하기전에 hypothesis를 보다 간략하게 정의해봅니다. 위의 수식과 같이 hypothesis와 cost함수를 정의해보았습니다. 2. cost 최소화 그럼 이제 tensorflow로 코드를 구현해보겠습니다.그전에 추후 그래프를 확인하기 위해 모듈하나를 설치..

머신러닝(ML) #3_ Linear Regression에서 Cost Function 최소화 하기

안녕하세요. 문범우입니다.이번 포스팅에서는 Linear Regression에서 cost를 최소화, minimize하는 방법에 대해 알아보겠습니다. * 해당 포스트의 모든 내용은 김성훈 교수님의 '모두를 위한 딥러닝'을 바탕으로 제작되었습니다.관련한 상세 내용은 아래 링크를 참고해주세요.https://hunkim.github.io/ml/ Cost Function을 최소화 하기 지난 포스팅에서 알아본 것과 같이 우리는 아래와 같은 hypothesis와 cost를 정의하였습니다. 그리고 앞으로의 설명을 위해서 hypothesis를 좀 더 간단히 만들었습니다. cost는 여전히 동일하게 되어있습니다. 이럴때 cost는 어떻게 될까요? 위의 그림과 같이, W=1 일때 cost(W)는 0이 됩니다.그리고 W=0 일..

머신러닝(ML) #1_ 모두를 위한 딥러닝

안녕하세요. 문범우입니다.작년 초~중반기 부터 인공지능, 머신러닝에 대해 많은 관심을 가지고 이것저것 알아보며 최근에는 딥러닝과 관련된 서적하나를 구매하여 공부중에 있습니다.그리고 보다 깊은 학습을 위해 추가적으로 온라인에서 배포되고 있는 무료 강의를 찾게 되었는데요, 인공지능, 머신러닝을 공부하시는 분들은 꽤나 잘 아시더군요. 바로, 홍콩대학교에서 연구중이신 김성훈교수님의 강의입니다.머신러닝과 관련되서는 앤드류 응 교수님의 강의가 제일 유명하지만 아무래도 영어강의이다 보니 깊은 이해가 부족할 수도 있겠다 싶어서 먼저 한글강의를 찾게 되었습니다.앞으로 머신러닝에 대한 포스팅은 김성훈 교수님의 강의를 바탕으로 진행되니 관심 있으신 분들은 직접 강의를 들으셔도 좋을 것 같습니다.김성훈 교수님의 '모두를 위한..

728x90