코드네임 :
🤖머신러닝🤖 3-1 본문
https://github.com/codenameVien/ML_Hongong/blob/main/perch.ipynb
ML_Hongong/perch.ipynb at main · codenameVien/ML_Hongong
Contribute to codenameVien/ML_Hongong development by creating an account on GitHub.
github.com
지도 학습 알고리즘 - 분류 와 회귀 로 나뉨
회귀 : 클래스(종류) 중 하나로 분류하는 것이 아닌, 임의의 수치를 예측하는 문제
(두 변수 사이의 상관관계를 분석하는 방법)
k- 최근접이웃 회귀에서는 새로운 샘플에 대한 예측을 이웃 샘플의 타깃값(정답) 의 평균 으로 내놓는다
reshape() : 배열의 크기를 바꾸는 메소드
배열 크기..
1차원이 (4,)이라면 4
2차원이 (2,2)라면 2x2로 4
# 예를 들어 (4,)배열을 (2,2)크기로 바꿔보자 (열이 4개인 1차원 배열을 2x2크기의 2차원 배열로)
test_array = np.array([1,2,3,4]) #1차원 배열 test_array 생성
print(test_array.shape) #(4,)배열임을 확인
test_array = test_array.reshape(2,2) #(2,2)로 바꿔주깅
print(test_array.shape) #(2,2)배열임을 확인
#>>> (4,)
#>>> (2,2)
결정계수(R^2) : 회귀 모델의 평가 점수
# R^2 = 1 - (타깃-예측)^2의 합 / (타깃-평균)^2의 합
# 결정계수는
# 타깃의 평균 정도를 예측하는 수준이라면(분자와 분모가 비슷해짐) 0에 가까워지고,
# 예측이 타깃에 아주 가까워지면(분자가 0에 가까워짐) 1에 가까운 값이 된다
# 일반적으로 훈련세트의 점수가 테스트 세트보다 조금 높음
과대적합 : if 훈련 세트 점수 >>>>> 테스트 세트 점수 ㄹㅇ 낮음
## 훈련 세트에만 잘 맞는 모델 not good!
과소적합 : if 훈련 세트 점수 <<<<< 테스트 세트 점수 or 두 점수 모두 낮음
## 모델이 너무 단순 or 훈련&테스트 세트 크기가 매우 작음
-> [해결법]
# 과소적합을 해결하는 방법 :
# 모델을 좀 더 복잡하게 만들어보자! 즉, 훈련세트에 더 잘 맞게 만들어보자
# k- 최근접 이웃 알고리즘에서 모델을 복잡하게 만드는 법: 이웃의 개수 k를 줄이기
## 이웃의 개수를 줄임 : 훈련세트에 있는 국지적인 패턴에 민감해짐
## 이웃의 개수를 늘림 : 데이터 전반에 있는 일반적인 패턴을 따름
#### 즉 과대적합일 경우 모델을 덜 복잡하게 만들어야 함 - k값 늘리기
'🤖AI > 머신러닝, 딥러닝' 카테고리의 다른 글
stable diffusion (0) | 2024.04.17 |
---|---|
🤖머신러닝🤖 3-2 (0) | 2024.04.09 |
🤖머신러닝🤖 2-2 (0) | 2024.03.28 |
🤖머신러닝🤖 2-1 (0) | 2024.03.26 |
🤖머신러닝🤖 1 (0) | 2024.03.24 |