AI & BigData 56

텐서플로우(Tensor Flow) #4_ multi-variable linear regression 구현하기

안녕하세요.오늘은 TensorFlow에서 multi-variable linear regression을 구현해보도록 하겠습니다. * 해당 포스트의 모든 내용은 김성훈 교수님의 '모두를 위한 딥러닝'을 바탕으로 제작되었습니다.관련한 상세 내용은 아래 링크를 참고해주세요.https://hunkim.github.io/ml/ 1. Multi-Variable Linear Regression 구현하기 지난번 실습까지는 단순히 x와 y하나만 있는 간단한 실습이었는데 이제 multi-variable 실습을 통해 실제로 응용해볼 수 있습니다. 먼저 아래와 같은 표를 두고 생각해보겠습니다. 위의 표에서 나타내는 값들을 점수라고 생각합시다.예를 들어, x1, x2, x3라는 여러번의 중간고사 점수가 있고 이제 Y라는 기말고사..

머신러닝(ML) #4_ Multi-variable linear regression

안녕하세요.지난 포스팅에서는 single-variable linear regression에 대해서 알아보았습니다.이번 포스팅에서는 multi-variable linear regression에 대해서 알아보도록 하겠습니다. * 해당 포스트의 모든 내용은 김성훈 교수님의 '모두를 위한 딥러닝'을 바탕으로 제작되었습니다.관련한 상세 내용은 아래 링크를 참고해주세요.https://hunkim.github.io/ml/ 1. Linear Regression(선형 회귀) 먼저 지난 포스팅에서 학습했던 내용을 잠깐 살펴보도록 하겠습니다.지난 포스팅에서는 선형 회귀, Linear Regression을 위해서 Hypothesis와 Cost function, Gradient descent algorithm등에 대해서 알아보..

텐서플로우(Tensor Flow) #3_ Linear Regression의 Cost 최소화 하기

안녕하세요. 문범우입니다.이번 포스팅에서는 지난 포스팅에서 구현했던 hypothesis 함수와 cost함수를 통해 Linear Regression에서의 cost를 최소화해보도록 하겠습니다. * 해당 포스트의 모든 내용은 김성훈 교수님의 '모두를 위한 딥러닝'을 바탕으로 제작되었습니다.관련한 상세 내용은 아래 링크를 참고해주세요.https://hunkim.github.io/ml/ 1. Simplified hypothesis 우리가 직접 텐서플로우를 사용하기전에 hypothesis를 보다 간략하게 정의해봅니다. 위의 수식과 같이 hypothesis와 cost함수를 정의해보았습니다. 2. cost 최소화 그럼 이제 tensorflow로 코드를 구현해보겠습니다.그전에 추후 그래프를 확인하기 위해 모듈하나를 설치..

머신러닝(ML) #3_ Linear Regression에서 Cost Function 최소화 하기

안녕하세요. 문범우입니다.이번 포스팅에서는 Linear Regression에서 cost를 최소화, minimize하는 방법에 대해 알아보겠습니다. * 해당 포스트의 모든 내용은 김성훈 교수님의 '모두를 위한 딥러닝'을 바탕으로 제작되었습니다.관련한 상세 내용은 아래 링크를 참고해주세요.https://hunkim.github.io/ml/ Cost Function을 최소화 하기 지난 포스팅에서 알아본 것과 같이 우리는 아래와 같은 hypothesis와 cost를 정의하였습니다. 그리고 앞으로의 설명을 위해서 hypothesis를 좀 더 간단히 만들었습니다. cost는 여전히 동일하게 되어있습니다. 이럴때 cost는 어떻게 될까요? 위의 그림과 같이, W=1 일때 cost(W)는 0이 됩니다.그리고 W=0 일..

텐서플로우(Tensor Flow) #2_ 간단한 Linear Regression 구현하기

안녕하세요.이번 포스팅에서는 TensorFlow를 통해 간단한 Linear Regression을 구현해보도록 하겠습니다. * 해당 포스트의 모든 내용은 김성훈 교수님의 '모두를 위한 딥러닝'을 바탕으로 제작되었습니다.관련한 상세 내용은 아래 링크를 참고해주세요.https://hunkim.github.io/ml/ 1. Tensorflow 시작하기 지난 포스팅에서 윈도우 환경에서 tensorflow를 설치해보았습니다. 설치방법은 지난 포스팅을 참고하시면 좋을 것 같습니다.먼저 다시 한번 tensorflow가 정상적으로 동작하는지 확인하겠습니다.아나콘다를 실행시키고 아래 명령어를 통해 텐서플로우 가상환경을 실행합니다. activate tensorflow 그리고 파이썬으로 들어가서 텐서플로우를 임포트합니다. $..

머신러닝(ML) #2_ Linear Regression(선형 회귀)

안녕하세요. 문범우입니다.오늘은 머신러닝에서 사용되는 Linear Regression에 대해서 알아보겠습니다. * 해당 포스트의 모든 내용은 김성훈 교수님의 '모두를 위한 딥러닝'을 바탕으로 제작되었습니다.관련한 상세 내용은 아래 링크를 참고해주세요.https://hunkim.github.io/ml/ 1. 선형 회귀(Linear Regression) 먼저 지난 포스팅에서 우리는 학습(Learning)을 기준으로하여 구별되는 Supervised learning과 Unsupervised learning에 대해서 알아보았습니다.그리고 Supervised learning에서 다루는 regression 문제가 있다고 말씀드렸습니다. 위와 같은 데이터가 존재합니다.그리고 그 데이터들을 학습시킨 모델 R이 있다고 합..

텐서플로우(Tensor Flow) #1_ 윈도우에 텐서플로우 설치하기

안녕하세요.머신러닝 이론을 학습하면서 동시에 텐서플로우 실습을 진행합니다.전반적인 이야기는 머신러닝 첫번째 포스트에서 확인하시면 되겠습니다. 먼저 이번 포스팅에서는 텐서플로우의 설치와 간단한 이용에 대해서 설명하도록 하겠습니다. * 해당 포스트의 모든 내용은 김성훈 교수님의 '모두를 위한 딥러닝'을 바탕으로 제작되었습니다.관련한 상세 내용은 아래 링크를 참고해주세요.https://hunkim.github.io/ml/ 1. 텐서플로우(TensorFlow)란? 아주 간단하게나마 텐서플로우(TensorFlow)를 알아보면 다음과 같습니다. Tensor Flow란 data flow graphs를 사용해서 numerical computation을 하는 것입니다.또한 많은이가 사용하는 python을 기반으로 합니다..

머신러닝(ML) #1_ 모두를 위한 딥러닝

안녕하세요. 문범우입니다.작년 초~중반기 부터 인공지능, 머신러닝에 대해 많은 관심을 가지고 이것저것 알아보며 최근에는 딥러닝과 관련된 서적하나를 구매하여 공부중에 있습니다.그리고 보다 깊은 학습을 위해 추가적으로 온라인에서 배포되고 있는 무료 강의를 찾게 되었는데요, 인공지능, 머신러닝을 공부하시는 분들은 꽤나 잘 아시더군요. 바로, 홍콩대학교에서 연구중이신 김성훈교수님의 강의입니다.머신러닝과 관련되서는 앤드류 응 교수님의 강의가 제일 유명하지만 아무래도 영어강의이다 보니 깊은 이해가 부족할 수도 있겠다 싶어서 먼저 한글강의를 찾게 되었습니다.앞으로 머신러닝에 대한 포스팅은 김성훈 교수님의 강의를 바탕으로 진행되니 관심 있으신 분들은 직접 강의를 들으셔도 좋을 것 같습니다.김성훈 교수님의 '모두를 위한..

인공지능(AI) #8_ 1차 논리(First-order logic), 한정사(Quantification)

안녕하세요.이번 포스팅부터는 1차 논리(first-order logic)에 대해서 살펴봅니다. 우리는 지난 포스팅에서 명제논리를 사용하여 지식 기반 에이전트가 자신이 속한 세계를 표현하는 방법과 다음에 취할 동작을 연역하는 방법을 살펴보았습니다. 하지만 명제논리는 복잡한 환경에 대한 지식을 간결하게 나타내기에는 표현력이 너무 약합니다. 따라서 우리는 이번 포스팅 부터하여 우리가 가진 상식의 상당 부분을 표현하기에 충분한 표현력을 가진 1차 논리(first-order logic)에 대해서 살펴보겠습니다.1. 1차 논리(First-order logic) 1차 논리에서는 명제 논리의 장점, 문맥 독립적이고 모호하지 않은 선언적, 조합적 의미론을 기반으로 삼고 자연어의 단점들은 제외하고 표현력이 큰 착안들만 가..

인공지능(AI) #7_ 전방 연쇄(Forward chaining), 후방 연쇄(Backward chaining)

안녕하세요. 이번 포스팅에서는 전방 연쇄(Forward chaining)와 후방 연쇄(Backward chaining)에 대해서 알아보겠습니다. 1. 전방 연쇄(Forward chaining) 먼저 전방 연쇄란, 기존의 알려진 사실들로 하여금 새로운 사실을 추리하면서 나아가는 방법입니다. 이름처럼 원래 알고 있는 것을 바탕으로 앞으로 나아가는 방법이죠. 즉, 한 문장, 함의에 대한 모든 전제가 알려져 있는 사실이라면 그것에 대한 결론을 새로운 사실로써 지식기지에 추가합니다. 예를 들어, A라는 사실과 B라는 사실을 알고 있을 때, 지식기지에 A∧B=>C 가 있다면 C를 하나의 사실로써 추가할 수 있습니다.이러한 과정을 통해 알고자 하는 사실 Q에 도달하거나 더 이상 추리가 불가능 할때 까지 반복합니다.아..

728x90