logitboost法与累积比数logit模型在

logitboost法与累积比数logit模型在

ID:22972443

大小:57.50 KB

页数:8页

时间:2018-11-02

logitboost法与累积比数logit模型在_第1页
logitboost法与累积比数logit模型在_第2页
logitboost法与累积比数logit模型在_第3页
logitboost法与累积比数logit模型在_第4页
logitboost法与累积比数logit模型在_第5页
资源描述:

《logitboost法与累积比数logit模型在》由会员上传分享,免费在线阅读,更多相关内容在工程资料-天天文库

1、Logitboost法与累积比数Logit模型在【摘要】  目的:探讨Logitboost和累积比数Logit模型这两种方法应用于判别分析的优缺点。方法:简要介绍Logitboost和累积比数Logit模型的原理,并采用此两种方法分别对同一个实例进行判别分析。结果:两种方法的判别正确率均较高。Logitboost判别效果高于累积比数Logit模型判别。讨论:在迭代轮数适当的情况下,Logitboost判别正确率更高,受迭代次数影响较大;而累积比数Logit模型的稳定性较强。在对事件进行判别时,可根据数据资料的具体特点选用判别

2、方法,也可将两种方法结合应用,取其判别效果较好者。【关键词】累积比数Logit模型判别分析Logitboost 睡眠质量  LogitboostandCumulativeOddsLogitModelandTheirApplicationinDiscriminantAnalysis    AbstractObjective:TopareLogitboostulativeoddslogitmodel,anddiscusstheircharacteristicsinantanalysis.Methods:Theultimatepr

3、incipleofLogitboostandCumulativeoddslogitmodelethodstosolvethesameproblem.ResultsLogitboost’seffectisbetterthanCumulativeoddslogitmodel.Conclusion:TheeffectofLogitboosteasure.ButCumulativeoddslogitmodelisstable.odel;discriminantanalysis;Logitboost;sleepquality  判别分

4、析(discriminantanalysis)是判别样品所属类型的一类统计方法,其应用之广可与回归分析相媲美。进行判别时,通常是根据已经掌握的一批分类明确的样品建立判别函数。从判别准则上分为Fisher判别和Bayes判别,但由于这两种传统的判别方法各有利弊,对资料有特定要求,如Fisher判别要求资料服从多元正态分布,Bayes判别要求已知先验概率,当不满足条件时,判别效果往往不理想,给人们的实际工作带来许多困难。本研究以一个实例简介Logitboost法和累积比数Logit模型在判别分析中的应用。  1原理  1.1累积

5、比数Logit模型判别累积比数Logit模型是二分类Logit模型的扩展,主要用于处理反应变量为有序分类变量的资料。该模型对资料要求不严,解释变量既可以是连续型变量,也可以是无序分类变量或有序分类变量[1]。只要资料满足比例优势假定条件(proportionaloddsassumption),即自变量的回归系数与分割点无关,且各自变量与Logit P呈线性关系,即可应用此方法。设应变量Y为K个等级的有序变量,第k(k=1,2,…,K)个等级的概率分别为{π1,π2,…,πk},且∑ki=1πk=1。影响因素xT=(x1,x2

6、,…,xP)为自变量,xi(i=1,2,…,p)可以是连续变量、无序或有序分类变量。则累积比数Logit模型可以表示为:logit(P(y>k

7、x))=ln(P(y>k

8、x)1-P(y>k

9、x))=-αk+∑pi=1βixi(k=1,2,…,K-1)等价于:P(y≤k

10、x)=11+e(-αk+∑pi=1βixi)  每类结果的概率:P(y=k

11、x)=P(y≤k

12、x)-P(y≤k-1

13、x)=11+e(-αk+∑pi=1βixi)-11+e(-αk-1+∑pi=1βixi)k=1,2,…K式中,αk和βi为待估

14、参数。该模型实际上是将K个等级人为地分成{1,…,k}和{k+1,…,K}两类,在这两类基础上定义的LogitP表示属于前k个等级的累积概率与后K-k个等级的累积概率的比数之对数。故该模型称为累积比数模型。对于K类反应变量,K-1个累积Logit模型各有一个不同的αk估计,而对于xi,K-1个模型的系数βi均相同[2]。  1.2Logitboost判别Boosting是由Schzpire于1990年首先提出[3],后经Freud和Schapire改进的一种机器学习方法。Frieman、Hastie、Tibshirani于2

15、000年又进一步改进,称为Logitboost,属于提升算法的一种。其基本思想是:基于现有样本数据集构建一个基础的“弱分类器”,反复调用该“弱分类器”,通过对每轮中错判的样本赋予更大的权重,使其更关注那些难判的样本,经过多轮循环,最后采用加权的方法将各轮的“弱分类器”合成“强分类器”,从而

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。