在处理不平衡数据上的特征工程时,可以采取以下几种解决方法:
from imblearn.over_sampling import RandomOverSampler
from imblearn.under_sampling import RandomUnderSampler
from imblearn.over_sampling import SMOTE
# 随机过采样
ros = RandomOverSampler()
X_ros, y_ros = ros.fit_resample(X, y)
# 随机欠采样
rus = RandomUnderSampler()
X_rus, y_rus = rus.fit_resample(X, y)
# SMOTE过采样
smote = SMOTE()
X_smote, y_smote = smote.fit_resample(X, y)
from sklearn.svm import SVC
# 使用class_weight参数调整类别权重
class_weight = {0: 1, 1: 10} # 给少数类别赋予更大的权重
svm = SVC(class_weight=class_weight)
svm.fit(X, y)
from sklearn.feature_selection import SelectKBest, f_classif
# 使用SelectKBest方法选择最相关的k个特征
k = 10
selector = SelectKBest(score_func=f_classif, k=k)
X_selected = selector.fit_transform(X, y)
# 例如,可以计算每个样本中特征的总和作为新特征
X['total_feature'] = X.sum(axis=1)
这些方法可以单独或结合使用,根据具体问题的特点选择适合的方法。特征工程的目标是提取有用的特征,减少不相关的特征,并提高分类模型的性能。