在使用机器学习算法时,常常需要将数据集拆分成训练集和测试集。但是不同的样本拆分方法可能会导致不同的结果,因此需谨慎选择。
以下是一个例子,展示了如何使用交叉验证来解决上述问题。假设我们有一个数据集,其中包含100个样本和10个特征,并且我们想要使用支持向量机算法进行分类。我们可以使用train_test_split函数来将数据集划分成训练集和测试集:
from sklearn import datasets
from sklearn.svm import SVC
from sklearn.model_selection import train_test_split
iris = datasets.load_iris()
X = iris.data
y = iris.target
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=0)
clf = SVC(kernel='linear', C=1, random_state=0)
clf.fit(X_train, y_train)
score = clf.score(X_test, y_test)
print("Accuracy: %0.2f" % score)
上述代码将数据集划分为训练集和测试集,并使用支持向量机算法进行分类。我们可以看到,在每次运行时,准确率可能会有所不同。
为了得到更加稳定的结果,我们可以使用交叉验证进行评估。以下代码展示了如何使用交叉验证:
from sklearn.model_selection import cross_val_score
clf = SVC(kernel='linear', C=1, random_state=0)
scores = cross_val_score(clf, X, y, cv=5)
print("Accuracy: %0.2f (+/- %0.2f)" % (scores.mean(), scores.std() * 2))
上述代码将数据集拆分成5个部分,每次使用其中4个部分作为训练集、1个作为测试集,返回