코드네임 :

🤖머신러닝🤖 3-1 본문

🤖AI/머신러닝, 딥러닝

🤖머신러닝🤖 3-1

비엔 Vien 2024. 4. 2. 14:35

https://github.com/codenameVien/ML_Hongong/blob/main/perch.ipynb

 

ML_Hongong/perch.ipynb at main · codenameVien/ML_Hongong

Contribute to codenameVien/ML_Hongong development by creating an account on GitHub.

github.com

 


지도 학습 알고리즘 - 분류 와 회귀 로 나뉨

 회귀 : 클래스(종류) 중 하나로 분류하는 것이 아닌, 임의의 수치를 예측하는 문제

          (두 변수 사이의 상관관계를 분석하는 방법)

 

k- 최근접이웃 회귀에서는 새로운 샘플에 대한 예측을  이웃 샘플의 타깃값(정답) 의 평균 으로 내놓는다

 

 

reshape() : 배열의 크기를 바꾸는 메소드 

배열 크기..

1차원이 (4,)이라면 4

2차원이 (2,2)라면 2x2로 4

# 예를 들어 (4,)배열을 (2,2)크기로 바꿔보자 (열이 4개인 1차원 배열을 2x2크기의 2차원 배열로)

test_array = np.array([1,2,3,4]) #1차원 배열 test_array 생성
print(test_array.shape) #(4,)배열임을 확인

test_array = test_array.reshape(2,2) #(2,2)로 바꿔주깅
print(test_array.shape) #(2,2)배열임을 확인

#>>> (4,)
#>>> (2,2)

 

 

 

결정계수(R^2) : 회귀 모델의 평가 점수

# R^2 = 1 -  (타깃-예측)^2의 합 / (타깃-평균)^2의 합
# 결정계수는 
# 타깃의 평균 정도를 예측하는 수준이라면(분자와 분모가 비슷해짐) 0에 가까워지고, 
# 예측이 타깃에 아주 가까워지면(분자가 0에 가까워짐) 1에 가까운 값이 된다

 


# 일반적으로 훈련세트의 점수가 테스트 세트보다 조금 높음


과대적합 : if 훈련 세트 점수 >>>>> 테스트 세트 점수 ㄹㅇ 낮음
## 훈련 세트에만 잘 맞는 모델 not good!

 

과소적합 : if 훈련 세트 점수 <<<<< 테스트 세트 점수 or 두 점수 모두 낮음
## 모델이 너무 단순 or 훈련&테스트 세트 크기가 매우 작음

 

-> [해결법]

# 과소적합을 해결하는 방법 :
# 모델을 좀 더 복잡하게 만들어보자! 즉, 훈련세트에 더 잘 맞게 만들어보자

# k- 최근접 이웃 알고리즘에서 모델을 복잡하게 만드는 법: 이웃의 개수 k를 줄이기
## 이웃의 개수를 줄임 : 훈련세트에 있는 국지적인 패턴에 민감해짐
## 이웃의 개수를 늘림 : 데이터 전반에 있는 일반적인 패턴을 따름

#### 즉 과대적합일 경우 모델을 덜 복잡하게 만들어야 함 - k값 늘리기

 

'🤖AI > 머신러닝, 딥러닝' 카테고리의 다른 글

stable diffusion  (0) 2024.04.17
🤖머신러닝🤖 3-2  (0) 2024.04.09
🤖머신러닝🤖 2-2  (0) 2024.03.28
🤖머신러닝🤖 2-1  (0) 2024.03.26
🤖머신러닝🤖 1  (0) 2024.03.24