1. 引言
信用卡是当今非现金信贷消费支付的重要手段之一。由于信用风险和欺诈风险的存在,信用卡违约支付行为屡见不鲜,为商业银行的经营带来不利影响。因此,在信用审批阶段,构建有效的信用评分模型来对高风险客户进行提前识别至关重要。
目前对于信用评分模型的构建已经具有一定的研究基础。随着人工智能时代的到来,决策树、Logistic回归、xgboost等机器学习模型在金融风控中逐渐广泛使用。而Logistic回归模型由于可解释性高、泛化性能较好,是信用评分较广泛使用的模型。但由于信用评分数据通常具有高风险样本较少的样本不平衡特点,而Logistic回归模型的损失函数是考虑了所有训练样本分类结果的似然函数,若不做处理将会使得模型对高风险样本错判率提高,因此需要寻求有效的适合Logistic回归信用评分模型的不平衡样本处理方法。
当前对于不平衡样本的处理,主要可以分为两种,一种是数据层面的欠采样、过采样算法,另一种是分类算法层面的代价敏感学习方法、一分类、集成算法等。分类算法层面的不平衡样本一般难度较大,相比起数据层面的处理复杂度更高。在数据层面的处理算法中,欠采样是通过筛选多数类样本来使总体样本达到平衡,但会损失多数类样本的部分信息,导致多数类样本的分类准确率下降。而过采样是通过扩增少数类样本来改善样本不平衡,可以保留样本更多信息,同时增加样本多样性 [1]。而SMOTE是比较经典的一种过采样方法。它通过在原始少数类样本与其一个随机同类近邻样本之间进行插值来产生新样本 [2],但同时也存在产生噪声样本的问题。传统SMOTE算法虽然相比简单随机过采样更能增加样本的多样性,但由于无论是根样本或辅助样本的选取均是一定条件下简单随机抽取的,因此SMOTE算法衍生出的样本的多样性其实具有较大的随机性。若抽取的根样本或其辅助样本代表性不足,或处于两类样本的边界,则衍生出来的样本的噪音特性可能多于有效特性,反而会为分类器的学习带来干扰 [3]。
在SMOTE改进的研究中,关于根样本与辅助样本的选取,前人提出过不少经典的优化算法。Han等 [4] 认为处于分类边界的样本对于分类具有更大的重要性,提出只对位于边界但非噪声的少数类样本进行SMOTE衍生的Borderline-SMOTE算法。HE Haibo等 [5] 在2008年提出ADASYN算法,根据原始少数类样本的分布特点,认为k近邻中异类样本占比越大的少数类样本是越难学习的样本,以其作为根样本时也需要合成越多的新样本。ZHU Tuanfai等 [6] 在2017年提出了SMOM算法,根据过泛化风险的大小,赋予根样本的k近邻同类样本不同的选择权重,权重越大代表该样本被选为辅助样本的概率越大,从而改善过泛化问题。Li等 [7] 在2015年提出结合Lasso方法筛选重要变量集合,为集合中的变量赋予权重值为2,其他变量权重值为1,然后对进行变量赋权后的不平衡样本集进行传统SMOTE过采样。
之前的学者关于SMOTE算法改进主要存在两个问题,一个是多数基于对样本分类的普适性认识进行改进,而较少从某个分类器的原理特点出发进行针对性优化;另一个是在关于辅助样本选取的改进上,虽然有赋予样本变量不同权重的尝试 [7],但基本没有从根据变量权重将多个近邻样本加权合成一个辅助样本的角度切入进行尝试和改进。
为此,本文以Kaggle德国信用卡风险样本为实验数据,结合Logistic回归模型的原理特点,提出一种考虑变量重要性来合成辅助样本的SMOTE过采样方法,针对性改善Logistic回归信用评分模型构建过程中受到样本不平衡问题的影响,最后基于实验数据与传统的SMOTE、Borderline-SMOTE、ADASYN在Logistic回归信用评分模型上进行对比分析。
2. 相关算法
2.1. Logistic回归分类算法
Logistic回归模型 [8] 是对数线性模型,常用于解决二分类或多分类问题,Logistic回归的函数形式为
Sigmod映射函数不改变自变量与函数值的线性相关的正负方向,因此Logistic回归的系数能直观体现自变量对输出概率值的影响程度。
Logistic回归函数的参数估计方法采用极大似然估计法来进行参数估计,估计步骤如下:
Step1:将Y的概率函数改写为
Step2:得到似然函数
Step3:对L取自然对数并对
和
求偏导,使偏导为0,求解出极大似然估计量
和
。
2.2. SMOTE过采样算法
SMOTE算法是Chawla等 [2] 在2002年提出的一种对不平衡数据进行预处理的方法,区别于随机过采样,SMOTE是基于少数类样本的k近邻同类样本的线性插值过采样方法,而并非简单复制原始少数类样本,一定程度上使样本的类分布更均衡,减少分类器过拟合的风险。具体的SMOTE过采样算法如下:
输入:少数类样本集
,采样倍数N,近邻个数k。
输出:合成的新少数类样本
集。
Step1:从
中随机抽取少数类样本
。
Step2:对于
中每一个样本
,计算
在
的k近邻样本,并将其放进集合
中。
Step3:根据采样倍率N,从
中随机抽取若干近邻样本
,取[0, 1]之间的随机数r,令新样本为
Step4:将
加入
。
3. 基于改进SMOTE算法的Logistic回归信用评分模型
3.1. 分箱与WOE编码
基于SMOTE的过采样方法无法直接对字符串、二值等属性的离散型变量直接进行插值操作,一般需要先对离散型变量进行编码。Logistic回归信用评分模型在特征处理上,为增强模型鲁棒性,通常会对变量进行分箱和WOE编码 [9]。
3.1.1. 基于高风险样本占比差异最大化的分箱
输入:待分箱数据集X,离散型变量col,最大分箱数n,每箱最少样本数占总体样本比例p。
输出:分箱结果。
初始化:当前箱数
为变量col的取值个数。
Step1:若
,计算变量 各个箱的高风险样本占比并按降序排序,并将差值最小的两箱进行合并,
;否则,直接结束分箱。
Step2:若
,回到step1;否则,到step3。
Step3:若当前存在箱的最小样本占总体样本比例小于p且当前箱数大于
,将该箱与其相邻高风险样本占比差值最小的箱合并,直至所有箱的最小样本占总体样本比例不小于p或当前箱数不大于
,然后结束分箱;否则,直接结束分箱。
3.1.2. WOE值计算
分箱后的WOE值计算公式如下:
其中,pyi是分箱中高风险样本占总体高风险样本的比例,pni是箱中低风险样本占总体低风险样本的比例。
3.2. 数据标准化与度量
数据标准化方法:离差标准化
样本距离度量:欧氏距离
3.3. 预训练:计算Logistic回归的变量权重
设训练样本集为
,训练样本集的标签为
,样本的变量为
。
输入:训练集
。
输出:变量权重向量
。
Step1:以
为输入变量,训练Logistic回归模型并调节参数。
Step2:若Logistic回归模型k折交叉验证准确率大于等于60%,提取输入变量回归系数
;否则,回到Step1。
Step3:通过归一化A获取变量权重向量
。
3.4. 考虑变量重要性的SMOTE过采样(FW_SMOTE)——基于Logistic回归分类器
不同的分类器具有不同的分类原理,因此改进SMOTE过采样算法对于不同分类器也可能会有不同的适用性。Logistic回归模型是对数线性模型,回归系数可以直观反映变量对输出概率值的相对影响程度,一般对分类越重要的变量变动越大,其对逻辑回归输出结果的直接影响也越大。此外,由于损失函数是基于所有训练样本的似然函数,迭代求解回归系数的过程受多数类样本的错分影响更大,所以样本不平衡会对参数估计造成较大影响。因此,考虑到Logistic回归的特点和原始SMOTE算法容易合成噪声的问题,本文提出一种基于变量重要性来加权合成辅助样本的FW_SMOTE算法。
FW_SMOTE算法的基本思想就是在辅助样本的选择时,首先通过预训练获取变量权重,然后以整体变量为维度选取k近邻样本,在k近邻样本中依次以各个变量为单独维度选取各个变量维度上与根样本最相近的样本,再按照各个变量的权重将各变量维度上的最相似样本加权合成辅助样本,最后将根样本和辅助样本进行插值得出新样本。FW_SMOTE算法步骤如下:
输入:少数类样本集合
,需要扩增的样本数量
,参考的近邻样本数量k。
输出:扩增的样本
。
初始化计数变量
。
Step1:预训练获取变量权重
。
Step2:从
中随机选取一个少数类样本
,令
。
Step3:计算
与
中所有候选样本的整体距离,将距离最小的前k个近邻样本加入集合
中。
Step4:将变量按权重进行降序排序,依次取权重最大(设第p大的权重记作
)的变量
,以
为单一维度来计算
与
中样本的距离,取距离最接近的样本
作为该变量维度下的最优插值样本。以此类推,直到选完权重最小的变量对应的最优插值样本,可得到
。
Step5:进行插值。选取[0,1]之间的随机数r,令
,将
加入
。
Step6:
,若
,结束插值;否则,返回step2。
3.5. FW_SMOTE_Logistic回归信用评分模型
3.5.1. 建模流程
1) 获取信用评分数据。
2) 数据预处理:包括数据清洗、3.2提到的高风险样本比例差异最大化为原则的分箱、WOE编码处理、数据标准化处理。
3) 划分训练/测试集:为进行五折交叉验证,将数据集划分为五份,每次取四份为训练集,一份为测试集。
4) 少数类样本衍生:采用3.4提出的FW_SMOTE过采样方法对训练集的少数类样本进行扩增。
5) 训练Logistic回归分类模型:将扩增样本后的训练集数据放进Logistic回归模型中进行训练,调节Logistic回归模型的参数。
6) 模型评价:将测试集数据输入训练后的Logistic回归模型,通过3.5.2模型评价方案考察模型分类效果。
7) 建立评分映射:对输出概率进行评分映射。(由于本文主要是研究改进SMOTE算法对Logistic回归信用评分模型中的分类性能的改善效果,因此实验中的将省略评分映射的步骤。)
3.5.2. 模型评价方案
为检验本文提出的FW_SMOTE过采样方法对Logistic回归信用评分模型中的分类性能的改善效果,将同时对比不做重采样、SMOTE过采样、BorderlineSMOTE过采样、ADASYN过采样方法的Logistic回归信用评分模型中的分类效果。模型评价的从以下三方面进行:
1) 模型分类准确性评价
混淆矩阵:如表1。
准确率:可以用来衡量整体的预测精度,即被判别正确的样本数量占整体样本数量的比值。
召回率:可以评价原始样本中的高风险(正)样本有多少被分类器鉴别出来。
2) 模型泛化能力评价
通过比较训练集/测试集的精度差异(即训练集/测试集在模型评价指标表现的差异),若两者相差不足5%,可以认为模型过拟合风险较低,具有较好的泛化性能。
3) 模型综合性能评价
:采取F_score作为综合评价指标,其中
值代表了查准率和召回率的相对重要性,设置
越大,认为召回率越重要。本文将采取F1和F2作为综合评价指标。
4. 实验过程与结果分析
本实验将对Logistic回归信用评分模型的分类效果进行验证与对比分析。
4.1. 实验数据处理
实验环境为用Anaconda搭建的Python编译环境,使用编译器为Spyder,使用编译语言为python3.6。实验数据来自Kaggle平台公开的德国信用卡风险数据集,含有高风险样本300个,低风险样本700个,包括类别标签一共10个变量,数据属性与缺失情况如表2。
为保证模型精度,对连续数值型变量不做分箱,字符串型变量中,除类别标签Risk以外,均以负样本占比最大化为原则做分箱和WOE编码,类别标签转换为0~1变量,高风险样本标签值为1,低风险样本标签值为0。对于缺失值,将在分箱时单独作为一种取值处理。
![](Images/Table_Tmp.jpg)
Table 2. Variable attributes and missing situation
表2. 变量属性与缺失情况
4.2. 归一化后的变量权重
由图1可以发现,9个变量在Logistic回归模型的重要性有较大的差异,其中变量Duration的重要性最高,因此在FW_SMOTE的过采样中,在Duration维度上与根样本越接近的近邻样本将会分得越大的权重,而最后合成的新样本在重要性越大的变量维度的表现将与原始少数类样本越相似,相比传统SMOTE更能反映原始少数类样本的在重要变量上的取值特点。
![](//html.hanspub.org/file/5-1760231x76_hanspub.png)
Figure 1. A demonstration of the weight of variables obtained from a pre-training
图1. 一次预训练得出的变量权重展示
4.3. 实验结果
为减少结果受数据集划分差异的影响,本文实验采用五折交叉验证,表3是取定近邻数 为6的五折交叉验证的结果。
![](Images/Table_Tmp.jpg)
Table 3. Five fold cross test results
表3. 五折交叉检验结果
从表3中的测试集表现可以看出,本文提出的FW_SMOTE_Logistic模型在高风险样本召回率和F_score上比不做过采样的Logistic回归模型有明显提高,有效改善了Logistic回归对于样本不平衡敏感的问题,对比基于经典SMOTE、BorderlineSMOTE和ADASYN的Logistic回归模型,FW_SMOTE_Logistic效果也更好一点,而且训练集和测试集的表现相差不超过5%,过拟合风险较小。为进一步验证本文FW_SMOTE_Logistic模型在实验数据上的适用性和稳定性,将进行稳健性检验。
4.4. 稳健性检验
通过修改FW_SMOTE、经典SMOTE、BorderlineSMOTE和ADASYN算法的近邻数k,观察五折交叉验证下的召回率、F2值评价指标表现:
由稳健性检验结果图2和图3可以看出,基于当前的实验数据,FW_SMOTE对Logistic回归信用评分模型的改善比其余三种经典改进SMOTE算法略优,说明其过采样性能在Logistic回归信用评分模型应用上与传统的SMOTE、Borderline-SMOTE和ADASYN算法有较高的可比性,在Logistic回归信用评分模型改善样本不平衡问题上具有一定应用价值。
由于本文只选取了德国信用卡数据集作为实验数据,FW_SMOTE算法表现评估还是有一定的数据局限性。但对不同数据集的模型构建本来就没有固定最优的模型或算法一说,针对不同的数据集应尝试几
![](//html.hanspub.org/file/5-1760231x77_hanspub.png)
Figure 2. High risk sample recall rate in test set with different nearest neighbor numbers
图2. 不同近邻数下测试集高风险样本召回率
![](//html.hanspub.org/file/5-1760231x78_hanspub.png)
Figure 3. Test set F2 score under different nearest neighbor numbers
图3. 不同近邻数下测试集F2值
种算法择优使用。本文提出的FW_SMOTE算法,旨在为Logistic回归信用评分模型在解决样本不平衡问题提供多一种有一定合理性和参考价值的过采样方法。
5. 结论
Logistic回归信用评分模型是构建信用评分模型广泛使用的模型,但由于信用风险数据集一般具有高风险样本较少的特点,若不改善样本不平衡问题,将会导致Logistic回归模型对于高风险样本的分类性能欠佳。而本文提出的FW_SMOTE过采样方法,结合Logistic回归的原理特点,在辅助样本选择上考虑了变量重要性来进行加权合成。基于本文实验数据对比发现,FW_SMOTE在Logistic回归信用评分模型上的应用性能比SMOTE、Borderline-SMOTE、ADASYN有所提升,具有一定的应用价值,同时实验结果也存在一定数据局限性。