機器學習實戰(4)—— KNN 代碼實現

本次實戰案例使用的是機器學習中鳶尾花(iris)數據集。

目標是根據 4 個特徵將 3 種鳶尾花分類。

下面使用 Python 進行實戰演練:

加載數據:

# 從sklearn.datasets 導入 iris數據加載器。
from sklearn.datasets import load_iris
# 使用加載器讀取數據並且存入變量iris。
iris = load_iris()
# 查驗數據規模。
iris.data.shape

查看數據說明:

# 查看數據說明。對於一名機器學習的實踐者來講,這是一個好習慣。
print(iris.DESCR)

#sepal 萼片
#petal 花瓣

對數據集進行分割:

# 從sklearn.cross_validation裏選擇導入train_test_split用於數據分割。
from sklearn.cross_validation import train_test_split
# 從使用train_test_split,利用隨機種子random_state採樣25%的數據作爲測試集。
X_train, X_test, y_train, y_test = train_test_split(iris.data, iris.target, test_size=0.25, random_state=33)

對數據標準化並建模(訓練與預測):

# 從sklearn.preprocessing裏選擇導入數據標準化模塊。
from sklearn.preprocessing import StandardScaler
# 從sklearn.neighbors裏選擇導入KNeighborsClassifier,即K近鄰分類器。
from sklearn.neighbors import KNeighborsClassifier

# 對訓練和測試的特徵數據進行標準化。
ss = StandardScaler()
X_train = ss.fit_transform(X_train)
X_test = ss.transform(X_test)

# 使用K近鄰分類器對測試數據進行類別預測,預測結果儲存在變量y_predict中。
knc = KNeighborsClassifier()
knc.fit(X_train, y_train)
y_predict = knc.predict(X_test)

查看模型效果:

# 使用模型自帶的評估函數進行準確性測評。
print('The accuracy of K-Nearest Neighbor Classifier is', knc.score(X_test, y_test))

# 依然使用sklearn.metrics裏面的classification_report模塊對預測結果做更加詳細的分析。
from sklearn.metrics import classification_report
print(classification_report(y_test, y_predict, target_names=iris.target_names))

從上圖可以看出模型的準確率、召回率、F1 值等。

這就是 KNN 的實戰案例,你學會了麼~

本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源https://mp.weixin.qq.com/s/KOxDMrHyot5wcfzyhIgQig