浏览量:0

一种汽车企业客户流失建模与分析方法

专利类型:发明专利 

语 言:中文 

申 请 号:CN201710994836.1 

申 请 日:20171023 

发 明 人:胡朝晖牟必清吴劲浩吴映波王旭景笑飞幸杰鄢孟娟于丹戴翔胡渝虹胡林海姚建丰刘民娜 

申 请 人:重庆长安汽车股份有限公司重庆大学 

申请人地址:400023 重庆市江北区建新东路260号 

公 开 日:20180501 

公 开 号:CN107977853A 

代 理 人:王翔 

代理机构:重庆大学专利中心 50201 

摘  要:本发明公开了一种汽车企业客户流失建模与分析方法,主要步骤如下:1)构建汽车企业客户流失模型需要的变量。所述变量通过降维产生;降维方法主要包括主成分分析法、SOM网络学习算法和FCM聚类法。2)降维后的变量去解释原来的大部分变量,从而将相关性很高的变量转化成彼此相互独立或不相关的变量。3)所述彼此相互独立或不相关的变量制成样本集。4)利用Boosting算法输出的强分类器H(x)对所述汽车企业客户流失分析的分类回归树模型进行优化,得到汽车企业客户流失分析模型,从而分析汽车企业客户流失原因。 

主 权 项:一种汽车企业客户流失建模与分析方法,其特征在于,主要包括以下步骤:1)构建汽车企业客户流失模型需要的变量;所述变量通过降维产生;降维方法主要包括主成分分析法、SOM网络学习算法和FCM聚类法;1.1)主成分分析法的主要步骤如下:1.1.1)确定分析变量,并采集所述分析变量的原始数据;采集出n个样本,每个样本有p个变量;所述n个样本和所述p个变量构成一个n×p型矩阵;1.1.2)对原始数据进行标准化处理,以消除量纲对数据处理的影响;标准化处理公式:yij=xij?xi/si?????(1)式中,yij为标准化后的变量值;xij为实际变量值;xi为算术平均值;si为标准差;i为矩阵向量的行下标;j为矩阵向量的列下标;处理后的数据矩阵为:Yn×p=y11y12...y1py21y22...y2p.........yn1yn2...ynp---(2)式中,n为样本个数;p为每个样本中的变量个数;1.1.3)计算特征根和响应的标准正交特征向量;相关系数矩阵Z为:Zn×p=z11z12...z1pz21z22...z2p.........zn1zn2...znp---(3)式中,zij为原变量zi与zj的相关系数;i为矩阵向量的行下标;j为矩阵向量的列下标;n为样本个数;p为每个样本中的变量个数;zij=zji?????(4)zij=Σk=1n(yki-yi)(ykj-yj)Σk=1n(yki-yi)Σk=1n(ykj-yj)2---(5)式中,zij为原变量zi与zj的相关系数;i为矩阵向量的行下标;j为矩阵向量的列下标;yki和ykiykj为标准化后的变量值;为yki的算术平均值;为yki的算术平均值;n为样本个数;整数k为任意样本,1≤k≤n;|λE?Z|=0??????(6)式中,λ为矩阵Z的特征值;E为单位矩阵;Z为公式(3)表示的矩阵;根据公式(6),可以求出矩阵Z的p个特征值,各主成分的方差贡献大小按特征根顺序递减排列;利用每个特征值λj解出方程组Zb=λjb对应于每个特征值的特征变量bj;式中,Z为公式(3)表示的矩阵;b为特征变量;λj为每一个特征值;1.1.4)计算主成分贡献率和累计贡献率;把所述p个变量y1,y2,...,yp的总方差分解为p个独立的变量g1,g2,...,gp的方差之和;第j个主成分yj的方差贡献率为式中,λj为矩阵Z的每个特征值;j为主成分个数,j=1,2,…,p;p为原始变量个数;第一主成分贡献率最大,即g1综合原始变量的能力最强;g2,g3,...,gp的综合能力依次递减;如果只取其中的m个主成分,那么这m个主成分的累计贡献率为:Ψm=Σk=1mλk/Σj=1pλj---(8)式中,λj是矩阵Z的每个特征值;j=1,2,…,p;p为所述独立变量个数;λk是矩阵Z的所有特征值;整数k为任意样本,1≤k≤m;m为主成分个数;1.1.5)得到新的综合变量;即,式中,p为所述独立向量个数;y1、y2、y3......yp为标准化后的变量值;m为主成分个数;l11、l21、l31......lmp为主成分得分系数;1.2)SOM网络学习算法的主步骤如下:1.2.1)初始化;将小权值设置为初始的权值向量;设定学习效率的初值及学习总次数T;1.2.2)给SOM网络提供一个输入模式式中,x1、x2、x3......xh为输入,h为输入节点个数;a为输入样本个数;1.2.3)通过竞争,确定样本输出神经元中的获胜神经元;利用公式(10)计算欧式距离dsds=||X-Ws||=Σq=1N(xq(t)-Wqs(t))---(10)式中,ds为输入样本q与输出神经元s之间的距离;X为输入矩阵;Ws为输出神经元与所有输入神经元之间连接的权向量;N为输入样本总数;1≤q≤N;xq(t)为输入神经元的输入;t为时间;Wqs(t)为输入神经元与输出神经元的连接权值;根据计算得到的欧式距离ds,找出最小值df;即:df=min(ds)??????(11)式中,ds为欧式距离;j*是欧式距离为df的输出神经元;j*为样本输出神经元中的获胜神经元;1.2.4)利用公式(12)和公式(13)修正输出神经元j*及其邻接神经元的权值;Wqs(t+1)=Wqs(t)+η(t)(xq(t)?Wqs(t))?????(12)式中,Wqs(t)为输入神经元与输出神经元的连接权值;xq(t)为输入神经元的输入;η(t)是一个随时间变化逐渐减小到零的增益;t为时间;η(t)=1/t??????(13)式中,t为时间;1.2.5)令t←t+1,重复步骤1.2.2至1.2.4,直到映射不再发生明显变化时停止训练,并输出聚类结果;1.3)FCM聚类的主要步骤如下:1.3.1)定义类别数c、模糊加权指数mf和容许误差ε;其中,mf∈[1,∞);1.3.2)随机产生一个聚类中心wr(u);r为任意类别;u为循环次数,u←1;1.3.3)设置隶属度;设定一个含有A个样本的集合{x1,x2,…,xA};将所述A个样本划分为c类;V={v1,v2,…,vc}表示所述c个类的中心;设矩阵U=(uIJ)c×A,所述矩阵U的元素uIJ表示J个样本属于第I类的隶属度;uIJ满足公式(14),即:JΣI=1cuIJ=1I,juIJ[0,1]IΣJ=1AuIJ>0---(14)式中,A为样本总数;J为任意样本,1≤J≤A;c为类的总数;I为任意类,1≤I≤c;uIJ为J个样本属于第I类的隶属度;隶属度uIJ计算公式如下:uIJ=1/Σu=1c(dIJ2(xJ,cI)duJ2(xJ,cu))1mf-1---(15)式中,u为循环次数,1≤u≤c;mf为模糊加权指数;uIJ为J个样本属于第I类的隶属度;xJ为模糊组J中的向量;cI为第I类聚类中心;cu为第u类聚类中心;dIJ(xJ,cI)为xJ和cI的通用距离函数;duJ(xJ,cu)为xJ和cu的通用距离函数;1.3.4)利用公式(16)修正聚类中心;wI(u+1)=ΣJ=1A(uIJ)mfxJΣJ=1A(uIJ)mf---(16)式中,u为循环次数;A为样本总数;J为任意样本,1≤J≤A;uIJ为J个样本属于第I类的隶属度;mf为模糊加权指数;xJ为模糊组J中的向量;1.3.5)利用公式(17)计算误差;e=ΣI=1c|wI(u+1)-wI(u)|2---(17)式中,c为类的总数;I为任意类,1≤I≤c;u为循环次数;wI(u+1)为修正后的聚类中心;wI(u)为修正前的聚类中心;1.3.6)如果e<ε,算法结束;如果e>ε,则令u←u+1,并重复步骤1.3.3至步骤1.3.5;其中,ε为理论误差;u为循环次数;1.3.7)算法结束后,根据得到的隶属度矩阵确定数据所属的类,显示最后的聚类结果;1.3.8)得到目标函数式:min J(U,V)=ΣI=1cΣJ=1A(uIJ)mf(dIJ)2---(18)式中,A为样本数;c为聚类类别个数,c∈[2,A];uIJ为第J个样本属于第I类的隶属度;dIJ为第J个样本和第I类聚类中心之间的距离;mf为模糊加权指数,mf∈[1,∞);2)用降维后的变量去解释原来的大部分变量,从而将相关性很高的变量转化成彼此相互独立或不相关的变量。3)将所述彼此相互独立或不相关的变量制成样本集4)利用CART算法和Boosting算法,将所述样本集建立为汽车企业客户流失模型,从而对汽车企业客户流失问题进行分析;主要包括以下步骤:4.1)构造CART决策树,即建立汽车企业客户流失分析的分类回归树模型;4.1.1)将所有样本集做为根节点;4.1.2)通过分割函数选择分割变量,并确定分割阀值Si的值;4.1.3)采用Gini指数法对P维空间的节点进行分割,从而将P维空间分为两个部分;P维空间一部分包含的点都满足Xi≤Si,另一部分包含的点满足Xi>Si;即得到根节点下面的2个子节点;其中,X1,X2,...,Xp表示解释变量;Si为分割阀值;4.1.4)通过再次选择分割变量和分割阀值,将步骤4.1.2和步骤4.1.3中得到的每个子节点以同样的方式再划分成两部分;4.1.5)重复步骤4.1.2至步骤4.1.4,直至把整个P维空间划分成互不重叠的小矩形,从而减小子节点的不纯度Gini不纯度表达式:Q=1-ΣK=1CPK2---(19)式中,C为类的总数;K为任意类,K=1,2,...,C;PK为观测点中属于类K的比例;4.2)对CART决策树剪枝;4.2.1)利用成本复杂性标准产生连续的、节点数目减少的序列树;成本复杂性标准为:Err(F)+α|L(F)|????????(20)式中,Err(F)为验证数据被CART决策树误分的部分;|L(F)|为树F的叶节点数;α为每个节点的惩罚成本,α∈[o,+∞);通过不断增加α值,产生连续的、节点数目减少的序列树;4.2.2)获得最优树;当剪枝序列含有的误差在最小错误树的一个标准差之内时,停止修剪,此时获得最优树;最小误差率是一个带有标准差的随机变量的观测值,表达式为Bmin(1-Bmin)/S---(21)式中,B为错误率;Bmin为最小错误树的错误率;S为验证数据集的数目;4.3)根据CART算法和训练集(X1,Y1),(X2,Y2),...,(Xρ,Yρ),对训练集的分布进行初始化;训练集的分布表示如下:D1(θ)=1/ρ??????(22)式中,θ为任意训练集序号;ρ为训练集个数;进行G轮训练;在G轮循环中,CART算法在权值Dt下训练,得到弱分类器ht;计算所述弱分类器ht在所述权值Dt下的错误率:ξt=Σθ=1SDt(Xθ)[ht(Xθ)Yθ]---(23)式中,S为验证数据集的数目;θ为任意训练集序号;Xθ和Yθ为序号θ对应的训练集;Dt(Xθ)为Xθ对应的权值;ht为弱分类器;利用所述错误率ξt更新权值:Dt+1(θ)=Dθ(t)exp(?αtYθht(Xθ))/Zt?????(24)式中,Di(t)为更新前的权值;αt为误差率增益值;ht为弱分类器;Xθ和Yθ为序号θ对应的训练集;Zt为标准化因子;αt=12log(1-ξtξt)---(25)式中,ξt为所述弱分类器ht在所述权值Dt下的错误率;当ht(xθ)=yθ时,yθht(xθ)=1;当ht(xθ)≠yθ时,yθht(xθ)=?1;其中,Xθ和Yθ为序号θ对应的训练集;ht为弱分类器;最后输出强分类器:式中,θ为任意训练集序号;G为训练轮数;ht为弱分类器;x为训练集中的向量数据;5)利用步骤4输出的强分类器H(x)对所述汽车企业客户流失分析的分类回归树模型进行优化,得到汽车企业客户流失分析模型,从而分析汽车企业客户流失原因。 

关 键 词:企业客户;汽车;降维;建模;分析;主成分分析法;分类回归树;分析模型;强分类器;网络学习;样本集;构建;算法;输出;优化;转化 

法律状态: 

IPC专利分类号:G06Q30/02(2012.01)I,G06K9/62(2006.01)I,G06N3/08(2006.01)I