欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

SVM 解决类别不平衡问题(scikit_learn)

程序员文章站 2022-06-12 16:57:56
...

在支持向量机中,C 是负责惩罚错误分类数据的超参数。

解决数据类别不平衡的一个方法就是使用基于类别增加权重的C

Cj=Cwj

其中,C是误分类的惩罚项,wj是与类别 j 的出现频率成反比的权重参数,Cj 就是类别 j 对应的 加权C

主要思路就是增大误分类 少数类别 带来的影响,保证 少数类别 的分类正确性,避免被多数类别掩盖

在scikit-learn 中,使用 svc 方法时,可以通过设置参数

class_weight=’balanced’

实现上述加权功能

参数‘balanced’ 会自动按照以下公式计算权值:

wj=nknj

其中,wj 为类别 j 对应权值,n 为数据总数,k为类别数量,即数据有k 个种类,nj是类别 j 的数据个数

0.导入库

# Load libraries
from sklearn.svm import SVC
from sklearn import datasets
from sklearn.preprocessing import StandardScaler
import numpy as np

1、加载Iris Flower 数据集

#只加载两个类别的数据,两类,各50个
iris = datasets.load_iris()
X = iris.data[:100,:]
y = iris.target[:100]

2.不均衡化数据集

# 删掉前四十个数据,数据总数变为60个
X = X[40:,:]
y = y[40:]

# 类别为0的类别不变,类别不为0的全部变为1
y = np.where((y == 0), 0, 1)
y
array([0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1,
       1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1,
       1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1])

可以看到,有60个数据,10个为类别0,50个为类别1

3.特征标准化

# Standarize features
scaler = StandardScaler()
X_std = scaler.fit_transform(X)

4.使用加权类别训练SVM分类器

# Create support vector classifier
svc = SVC(kernel='linear', class_weight='balanced', C=1.0, random_state=0)

# Train classifier
model = svc.fit(X_std, y)

翻译自Chris Albon 博客
原文地址