# page 50 ~ 64
첫 번째 머신러닝 프로그램:
"k-최근접 이웃(k-Nearest Neighbors)알고리즘을 사용해 도미와 빙어 데이터를 구분해보겠습니다."
"앞에서 준비했던 빙어 데이터를 하나의 데이터로 합치겠습니다."
length = bream_length + smelt_length
weight = bream_weight + smelt_weight
"패키지(사이킷런)를 사용하려면 각 특성의 리스트를 세로 방향으로 늘어뜨린 2차원 리스트를 만들어야 합니다."
"이렇게 만드는 가장 쉬운 방법은 파이썬의 zip() 함수와 리스트 내포 구문을 사용하는 것입니다."
- zip() 함수는 나열된 리스트 각각에서 하나씩 원소를 꺼내 반환합니다.
# zip()함수와 리스트 내포 구문 사용
fish_data = [[l, w] for l, w in zip(length, weight)]
print(fish_data)
# 출력 결과
[[25.4, 242.0], [26.3, 290.0], [26.5, 340.0], [29.0, 363.0], [29.0, 430.0], [29.7, 450.0], [29.7, 500.0], [30.0, 390.0], [30.0, 450.0], [30.7, 500.0], [31.0, 475.0], [31.0, 500.0], [31.5, 500.0], [32.0, 340.0], [32.0, 600.0], [32.0, 600.0], [33.0, 700.0], [33.0, 700.0], [33.5, 610.0], [33.5, 650.0], [34.0, 575.0], [34.0, 685.0], [34.5, 620.0], [35.0, 680.0], [35.0, 700.0], [35.0, 725.0], [35.0, 720.0], [36.0, 714.0], [36.0, 850.0], [37.0, 1000.0], [38.5, 920.0], [38.5, 955.0], [39.5, 925.0], [41.0, 975.0], [41.0, 950.0], [9.8, 6.7], [10.5, 7.5], [10.6, 7.0], [11.0, 9.7], [11.2, 9.8], [11.3, 8.7], [11.8, 10.0], [11.8, 9.9], [12.0, 9.8], [12.2, 12.2], [12.4, 13.4], [13.0, 12.2], [14.3, 19.7], [15.0, 19.9]]
"마지막으로 준비할 데이터는 정답 데이터입니다."
"즉 첫 번재 생선은 도미이고, 두 번재 생선도 도미라는 식으로 각각 어떤 생선인지 답을 만드는 것입니다."
"곱셈 연산자를 사용하면 파이썬 리스트를 간단하게 반복시킬 수 있습니다."
# 곱셈 연산자 활용
# 정답 리스트는 도미와 빙어를 순서대로 나열했기 때문에 도미(1) 35번 등장 + 빙어(0) 14번 등장
fish_target = [1] * 35 + [0] * 14
print(fish_target)
# 출력 결과물
[1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0]
"이제 사이킷런 패키지에서 k-최근접 이웃 알고리즘을 구현한 클래스인 KNeighborsClassifier를 임포트합니다.
from sklearn.neighbors import KNeighborsClassifier
"임포트한 KNeighborsClassifier 클래스의 객체를 먼저 만듭니다.
kn = KNeighborsClassifier()
"이 객체에 fish_data와 fish_target을 전달하여 도미를 찾기 위한 기준을 학습시킵니다."
"이런 과정을 머신러닝에서 훈련(training)이라고 부릅니다."
"사이킷런에서는 fit() 메서드가 이런 역할을 합니다."
kn.fit(fish_data, fish_target)
"fit() 메서드는 주어진 데이터로 알고리즘을 훈련합니다."
"사이킷런에서 모델을 평가하는 메서드는 score() 메서드입니다."
"이 메서드는 0에서 1 사이의 값을 반환합니다."
"1은 모든 데이터를 정확히 맞혔다는 것을 나타냅니다."
kn.score(fish_data, fish_target)
# 출력 결과물
1.0
"이 값을 정확도(accuracy)라고 부릅니다."
k-최근접 이웃 알고리즘:
"k-최근접 이웃 알고리즘은 매우 간단합니다."
"어떤 데이터에 대한 답을 구할 때 주위의 다른 데이터를 보고 다수를 차지하는 것을 정답으로 사용합니다."
다수결의 원칙!!
# 임의의 물고기 데이터를 이용한 테스트
kn.predict([[30, 600]])
# 출력 결과물
array([1])
"predict() 메서드는 새로운 데이터의 정답을 예측합니다."
"이 메서드도 앞서 fit() 메서드와 마찬가지로 리스트의 리스트를 전달해야 합니다."
- 장점: 데이터를 모두 가지고 있으면 준비 완료!
- 단점: 데이터가 아주 많은 경우 사용하기 어려움..
print(kn._fit_X)
# 출력 결과물
[[ 25.4 242. ]
[ 26.3 290. ]
[ 26.5 340. ]
[ 29. 363. ]
[ 29. 430. ]
[ 29.7 450. ]
[ 29.7 500. ]
[ 30. 390. ]
[ 30. 450. ]
[ 30.7 500. ]
[ 31. 475. ]
[ 31. 500. ]
[ 31.5 500. ]
[ 32. 340. ]
[ 32. 600. ]
[ 32. 600. ]
[ 33. 700. ]
[ 33. 700. ]
[ 33.5 610. ]
[ 33.5 650. ]
[ 34. 575. ]
[ 34. 685. ]
[ 34.5 620. ]
[ 35. 680. ]
[ 35. 700. ]
[ 35. 725. ]
[ 35. 720. ]
[ 36. 714. ]
[ 36. 850. ]
[ 37. 1000. ]
[ 38.5 920. ]
[ 38.5 955. ]
[ 39.5 925. ]
[ 41. 975. ]
[ 41. 950. ]
[ 9.8 6.7]
[ 10.5 7.5]
[ 10.6 7. ]
[ 11. 9.7]
[ 11.2 9.8]
[ 11.3 8.7]
[ 11.8 10. ]
[ 11.8 9.9]
[ 12. 9.8]
[ 12.2 12.2]
[ 12.4 13.4]
[ 13. 12.2]
[ 14.3 19.7]
[ 15. 19.9]]
print(kn._y)
# 출력 결과물
[1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0
0 0 0 0 0 0 0 0 0 0 0 0]
"실제로 k-최근접 이웃 알고리즘은 무언가 훈련되는 게 없는 셈이네요."
"fit() 메서드에 전달한 데이터를 모두 저장하고 있다가 새로운 데이터가 등장하면 가장 가까운 데이터를 참고하여 도미인지 빙어인지 구분합니다."
"그럼 가까운 몇 개의 데이터를 참고할까요?"
"기본값은 5입니다."
kn49 = KNeighborsClassifier(n_neighbors=49) # 참고 데이터를 49개로 한 kn49 모델
"fish_data의 데이터 49개 중에 도미가 35개로 다수를 차지하므로 어떤 데이터를 넣어도 무조건 도미로 예측할 것입니다."
kn49.fit(fish_data, fish_target)
kn49.score(fish_data, fish_target)
# 출력 결과물
0.7142857142857143
# 49마리의 생선 중 35마리만 조건을 만족한다면 정확도는?
print(35/49)
# 출력 결과물
0.7142857142857143
- 아래 주소에서 전체 소스 코드 확인 가능
- https://bit.ly/hg-01-3
복습 및 정리:
"특성은 데이터를 표현하는 하나의 성질"
"머신러닝 알고리즘이 데이터에서 규칙을 찾는 과정을 훈련이라고 합니다."
"k-최근접 이웃 알고리즘은 가장 간단한 머신러닝 알고리즘 중하나이며, 사실 어떤 규칙을 찾기보다는 전체 데이터를 메모리에 가지고 있는 것이 전부입니다."
"머신러닝 프로그램에서는 알고리즘이 구현된 객체를 모델이라고 부릅니다."
"정확도는 정확한 답을 몇 개 맞혔는지를 백분율로 나타낸 값입니다."
To-Be:
Chapter 02. 데이터 다루기
'IT > 혼자 공부하는 머신러닝+딥러닝' 카테고리의 다른 글
[Day-4] 혼자 공부하는 머신러닝+딥러닝 - 6 (0) | 2022.08.16 |
---|---|
[Day-3] 혼자 공부하는 머신러닝+딥러닝 - 5 (4) | 2022.08.14 |
[Day-3] 혼자 공부하는 머신러닝+딥러닝 - 4 (0) | 2022.08.13 |
[Day-1] 혼자 공부하는 머신러닝+딥러닝 - 2 (0) | 2022.08.08 |
[Day-1] 혼자 공부하는 머신러닝+딥러닝 - 1 (0) | 2022.08.07 |