새소식

반응형
IT/혼자 공부하는 머신러닝+딥러닝

[Day-2] 혼자 공부하는 머신러닝+딥러닝 - 3

  • -
728x90
반응형

# page 50 ~ 64

 

혼자 공부하는 머신러닝+딥러닝 - 박해선 지음

 

첫 번째 머신러닝 프로그램:

"k-최근접 이웃(k-Nearest Neighbors)알고리즘을 사용해 도미와 빙어 데이터를 구분해보겠습니다."

 

"앞에서 준비했던 빙어 데이터를 하나의 데이터로 합치겠습니다."

 

length = bream_length + smelt_length
weight = bream_weight + smelt_weight

 

"패키지(사이킷런)를 사용하려면 각 특성의 리스트를 세로 방향으로 늘어뜨린 2차원 리스트를 만들어야 합니다."

 

"이렇게 만드는 가장 쉬운 방법은 파이썬의 zip() 함수리스트 내포 구문을 사용하는 것입니다."

  • zip() 함수는 나열된 리스트 각각에서 하나씩 원소를 꺼내 반환합니다.

 

# zip()함수와 리스트 내포 구문 사용
fish_data = [[l, w] for l, w in zip(length, weight)]

print(fish_data)
# 출력 결과
[[25.4, 242.0], [26.3, 290.0], [26.5, 340.0], [29.0, 363.0], [29.0, 430.0], [29.7, 450.0], [29.7, 500.0], [30.0, 390.0], [30.0, 450.0], [30.7, 500.0], [31.0, 475.0], [31.0, 500.0], [31.5, 500.0], [32.0, 340.0], [32.0, 600.0], [32.0, 600.0], [33.0, 700.0], [33.0, 700.0], [33.5, 610.0], [33.5, 650.0], [34.0, 575.0], [34.0, 685.0], [34.5, 620.0], [35.0, 680.0], [35.0, 700.0], [35.0, 725.0], [35.0, 720.0], [36.0, 714.0], [36.0, 850.0], [37.0, 1000.0], [38.5, 920.0], [38.5, 955.0], [39.5, 925.0], [41.0, 975.0], [41.0, 950.0], [9.8, 6.7], [10.5, 7.5], [10.6, 7.0], [11.0, 9.7], [11.2, 9.8], [11.3, 8.7], [11.8, 10.0], [11.8, 9.9], [12.0, 9.8], [12.2, 12.2], [12.4, 13.4], [13.0, 12.2], [14.3, 19.7], [15.0, 19.9]]

 

"마지막으로 준비할 데이터는 정답 데이터입니다."

"즉 첫 번재 생선은 도미이고, 두 번재 생선도 도미라는 식으로 각각 어떤 생선인지 답을 만드는 것입니다."

 

"곱셈 연산자를 사용하면 파이썬 리스트를 간단하게 반복시킬 수 있습니다."

 

# 곱셈 연산자 활용
# 정답 리스트는 도미와 빙어를 순서대로 나열했기 때문에 도미(1) 35번 등장 + 빙어(0) 14번 등장
fish_target = [1] * 35 + [0] * 14
print(fish_target)

# 출력 결과물
[1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0]

 

"이제 사이킷런 패키지에서 k-최근접 이웃 알고리즘을 구현한 클래스KNeighborsClassifier를 임포트합니다.

 

from sklearn.neighbors import KNeighborsClassifier

 

"임포트한 KNeighborsClassifier 클래스의 객체를 먼저 만듭니다.

 

kn = KNeighborsClassifier()

 

"이 객체에 fish_data와 fish_target을 전달하여 도미를 찾기 위한 기준을 학습시킵니다."

"이런 과정을 머신러닝에서 훈련(training)이라고 부릅니다."

"사이킷런에서는 fit() 메서드가 이런 역할을 합니다."

 

kn.fit(fish_data, fish_target)

 

"fit() 메서드는 주어진 데이터로 알고리즘을 훈련합니다."

 

"사이킷런에서 모델을 평가하는 메서드는 score() 메서드입니다."

"이 메서드는 0에서 1 사이의 값 반환합니다."

"1은 모든 데이터를 정확히 맞혔다는 것을 나타냅니다."

 

kn.score(fish_data, fish_target)

# 출력 결과물
1.0

 

"이 값을 정확도(accuracy)라고 부릅니다."

 

 

k-최근접 이웃 알고리즘:

"k-최근접 이웃 알고리즘은 매우 간단합니다."

"어떤 데이터에 대한 답을 구할 때 주위의 다른 데이터를 보고 다수를 차지하는 것을 정답으로 사용합니다."

 

 

다수결의 원칙!!

 

 

# 임의의 물고기 데이터를 이용한 테스트
kn.predict([[30, 600]])

# 출력 결과물
array([1])

 

"predict() 메서드 새로운 데이터의 정답을 예측합니다."

"이 메서드도 앞서 fit() 메서드와 마찬가지로 리스트의 리스트를 전달해야 합니다."

 

  • 장점: 데이터를 모두 가지고 있으면 준비 완료!
  • 단점: 데이터가 아주 많은 경우 사용하기 어려움..

 

print(kn._fit_X)

# 출력 결과물
[[  25.4  242. ]
 [  26.3  290. ]
 [  26.5  340. ]
 [  29.   363. ]
 [  29.   430. ]
 [  29.7  450. ]
 [  29.7  500. ]
 [  30.   390. ]
 [  30.   450. ]
 [  30.7  500. ]
 [  31.   475. ]
 [  31.   500. ]
 [  31.5  500. ]
 [  32.   340. ]
 [  32.   600. ]
 [  32.   600. ]
 [  33.   700. ]
 [  33.   700. ]
 [  33.5  610. ]
 [  33.5  650. ]
 [  34.   575. ]
 [  34.   685. ]
 [  34.5  620. ]
 [  35.   680. ]
 [  35.   700. ]
 [  35.   725. ]
 [  35.   720. ]
 [  36.   714. ]
 [  36.   850. ]
 [  37.  1000. ]
 [  38.5  920. ]
 [  38.5  955. ]
 [  39.5  925. ]
 [  41.   975. ]
 [  41.   950. ]
 [   9.8    6.7]
 [  10.5    7.5]
 [  10.6    7. ]
 [  11.     9.7]
 [  11.2    9.8]
 [  11.3    8.7]
 [  11.8   10. ]
 [  11.8    9.9]
 [  12.     9.8]
 [  12.2   12.2]
 [  12.4   13.4]
 [  13.    12.2]
 [  14.3   19.7]
 [  15.    19.9]]

 

print(kn._y)

# 출력 결과물
[1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0
 0 0 0 0 0 0 0 0 0 0 0 0]

 

"실제로 k-최근접 이웃 알고리즘은 무언가 훈련되는 게 없는 셈이네요."

"fit() 메서드에 전달한 데이터를 모두 저장하고 있다가 새로운 데이터가 등장하면 가장 가까운 데이터를 참고하여 도미인지 빙어인지 구분합니다."

 

"그럼 가까운 몇 개의 데이터를 참고할까요?"

"기본값은 5입니다."

 

kn49 = KNeighborsClassifier(n_neighbors=49) # 참고 데이터를 49개로 한 kn49 모델

 

"fish_data의 데이터 49개 중에 도미가 35개로 다수를 차지하므로 어떤 데이터를 넣어도 무조건 도미로 예측할 것입니다."

 

kn49.fit(fish_data, fish_target)
kn49.score(fish_data, fish_target)

# 출력 결과물
0.7142857142857143

 

# 49마리의 생선 중 35마리만 조건을 만족한다면 정확도는?
print(35/49)

# 출력 결과물
0.7142857142857143

 

실제 코랩에 작성한 손코딩

 

  • 아래 주소에서 전체 소스 코드 확인 가능
    • https://bit.ly/hg-01-3

 

 

복습 및 정리:

"특성은 데이터를 표현하는 하나의 성질"

"머신러닝 알고리즘이 데이터에서 규칙을 찾는 과정을 훈련이라고 합니다."

"k-최근접 이웃 알고리즘은 가장 간단한 머신러닝 알고리즘 중하나이며, 사실 어떤 규칙을 찾기보다는 전체 데이터를 메모리에 가지고 있는 것이 전부입니다."

"머신러닝 프로그램에서는 알고리즘이 구현된 객체를 모델이라고 부릅니다."

"정확도는 정확한 답을 몇 개 맞혔는지를 백분율로 나타낸 값입니다."

 

 

 

To-Be:

Chapter 02. 데이터 다루기

 

 

728x90
반응형
Contents

포스팅 주소를 복사했습니다

이 글이 도움이 되었다면 공감 부탁드립니다.