Subin

Mechanical & Software Engneering

2. Linear Regression의 Hypothesis와 cost 설명

모두를 위한 딥러닝 by 홍콩과기대 Sung Kim 강의를 보며 참고하였고 정리하였습니다.https://hunkim.github.io/ml/

1.Predicting exam score : regression

어떤 학생이 몇시간 정도 공부했더니 얼마정도의 성적을 나오는지 supervised learning 해보기

스코어 0-100점 사이 예측하는것 은 supervised learning 중에서도 regression

이런 데이터를 가지고 학습을 시킴 이 과정은 training

이것은 training data

이 데이터를 가지고 학습을 하면 모델을 만들게 됨. 학습 끝남.

학생이 시험을 치기 전에 인공지능에게 물어본다. 리그레션은 학습된 데이터를 가지고 본다. 7시간 했으니까 65점정도 나오겠다 하는것이 linear regression

Data set 간단히 준비

x: 예측을 하기위한 기본적인 자료 ,피쳐

Y 예측해야 될 대상

Training data :  3개의학습 데이터

2. (Linear) Hypothesis

Linear 하 모델이 우리 데이터에 맞을 거다 라고 가설을 세우는 것

어떤 선이 우리 데이터에 맞을까? 선을 찾는것이 학습을 하는 것

H(x) = Wx+b

선의 모양은 W와 b에 따라 달라짐

이렇게 일차방정식이 될것이다 라고 가설을 세움

3. 어떤 것이 우리 데이터에 잘 맞는 선일까?

파란선 가설 H(x) = 1*x+0

노란선 가설 H(x) = 0.5*x+2

어떤 가설이 더 좋은가?

선과 실제 나타나는 점과 거리가 가까우면 좋음, 멀먼 안좋음

4. Cost Function (Lost Function)

거리 재는 것

(H(x)-y)^2

음수양수값 포함, 멀수록 패널티 더욱 많이 줌

데이터 3개니까 3으로 나옴

일반화 수식 m=학습 데이터 개수

Hypothesis를 cost function에 대입하자.

W와 b의함수

Linear Regression의 학습 : 전체 식을 가장 작은 값을 가지도록 하는 W와 b 구하기

5. Goal : Minimize cost

minimize cost(W,b)

62 total views, 2 views today

댓글 남기기

이메일은 공개되지 않습니다. 필수 입력창은 * 로 표시되어 있습니다