일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- Chap4 #ML #배치경사하강법 #경사하강법 #핸즈온머신러닝 #핸즈온
- 키워드추출 #그래프기반순위알고리즘 #RandomSurferModel #MarcovChain #TextRank #TopicRank #EmbedRank
- python #dataframe #파생변수 #map #lambda #mapping
- 확률적경사하강법 #경사하강법 #머신러닝 #선형회귀 #ML #Chap4
- 티스토리 #수학수식 #수학수식입력 #티스토리블로그 #수식입력
- IDE #spyder
- Chap4 #핸즈온머신러닝 #머신러닝 #핸즈온머신러닝연습문제
- python #파이썬 #pandas #dataframe #dataframe생성 #valueerror
- 인덱싱 #슬라이싱 #python #파이썬 #수정및삭제 #원소의수정 #객체의함수 #keys#values#items#get#len#append#sort#sorted
- 티스토리블로그 #티스토리 #PDF #블로그PDF저장
- Chap4 #다항회귀 #PolynomialRegression #ML #머신러닝
- Chap4 #ML #미니배치경사하강법 #경사하강법 #머신러닝 #핸즈온머신러닝
- Chap4 #릿지회귀 #정규방정식 #확률적경사하강법 #SGD #규제가있는선형모델
- adp #데이터분석전문가 #데이터분석자격증 #adp후기 #adp필기
- 경사하강법 #핸즈온머신러닝 #머신러닝 #ML
- 선형회귀 #정규방정식 #계산복잡도 #LinearRegression #Python #ML
- ML #핸즈온머신러닝 #학습곡선 #편향분산트레이드오프
- Chap4
- 파이썬 #Python #가상환경 #anaconda #python설치 #python가상환경
- 핸즈온머신러닝 #handson
- 라쏘회귀 #엘라스틱넷 #조기종료
- 객체의종류 #리스트 #튜플 #딕셔너리 #집합 #Python #파이썬 #list #tuple #dictionary #set
- Today
- Total
목록Chap4 (3)
StudyStudyStudyEveryday

과대 적합과 과소 적합 고차 다항 회귀의 경우 차수가 낮은 선 회귀에 비해 훨씬 더 훈련 데이터에 잘 맞는다. 위 그래프를 참고해보자. 차수가 2인 회귀 모델에 비해 차수가 300인 모델은 심각하게 훈련 데이터에 과대적합되었다. 반면, 차수가 1인 선형 모델은 과소적합이 되어보인다. 이렇듯 모델을 만들고 난 후, 모델의 일반화 성능을 추정해볼 필요가 있다. 측정 방법에는 교차 검증 방법과 학습 곡선을 살펴보는 방법이 있다. 이번 포스팅에서는 학습 곡선에 대해 알아보고, 추후에 교차 검증과 관련된 포스팅을 해보도록 하겠다. 학습 곡선을 이용한 성능 측정 (과소 적합된 경우) 학습 곡선 그래프는 훈련 세트와 검증 세트의 모델 성능을 훈련 세트 크기(or 훈련 반복)의 함수로 나타낸다. 이 그래프를 생성하기 ..

경사하강법 경사 하강법 (Gradient Descent, GD)은 여러 종류의 문제에서 최적의 해법을 찾을 수 있는 일반적인 최적화 알고리즘이다. 경사 하강법은 비용함수를 줄이기 위해 반복해서 파라미터를 조정해간다. 첫 시작은 파라미터 벡터 \(\mathbf{\theta}\)를 임의값으로 설정하여 시작한다. (무작위 초기화 random initialization) 그 다음, \(\mathbf{\theta}\)에 대해 비용함수(예를 들어 MSE)의 현재 Gradient를 계산한다. 그리고 Gradient가 감소하는 방향으로 파라미터를 조정해나간다. 이를 반복하여 Gradient가 0이 되면 최솟값에 도달한 것이다. * 여기서 Gradient는 비용 함수의 미분값이라고 생각하면 된다. 즉, 정리해보면 다음과..

머신러닝 모델과 훈련 알고리즘에 대한 소개를 하고자 한다. 이번 포스팅에서는 선형 회귀에 대한 설명을 할 것이다. 선형 회귀에 대한 설명에 앞서 이 모델을 훈련시키는 두 가지 방법을 설명하겠다. 먼저, 직접 계산 가능한 공식을 통해 training set에 대해 비용 함수를 최소화하는 모델 파라미터를 해석적으로 구하는 방법 경사 하강법 (GD)라 불리는 반복적인 최적화 방식을 사용해 모델 파라미터를 조금씩 바꾸며 비용 함수를 훈련 세트에 대해 최소화시키는 방법 선형 회귀 모델의 예측 선형 회귀 모델은 다음과 같이 나타낼 수 있다. $$ \hat{y} = \theta_{0}+\theta_{1}x_{1}+\cdots +\theta_{n}x_{n} $$ \(\hat{y}\) 은 예측값, n은 특성수, \(x_..