主要内容

参考文献

[1]Agresti, a .分类数据分析,第二版,霍博肯,台北:约翰·威利& Sons Inc ., 2002年。

[2]Allwein E。、r . Schapire和y歌手。“减少多级二进制:一个统一的方法分类器。《机器学习研究。1卷,2000年,页113 - 141。

[3]Alpaydin,大肠“联合5 x 2 CV F检验监督分类学习算法进行比较。“神经计算,卷。11日,8号,1999年,页1885 - 1992。

[4]布莱克沃德,j . a和d·j·迪恩。“比较人工神经网络的精度和判别分析在预测森林覆盖从地图类型变量”。计算机和电子产品在农业卷。24日,问题3,1999年,页131 - 151。

[5]Bottou, L。林智仁。”解决支持向量机。金宝app“大规模内核机器(l . Bottou o .薛潘、d . DeCoste和j·韦斯顿,eds)。剑桥,麻州:麻省理工学院出版社,2007年。

bouckaer [6]。>选择两种学习算法的基础上校准测试。“机器学习国际会议上,页51-58,2003。

[7]Bouckaert r·e·弗兰克。“评估意义的可复制性测试对比学习算法。“在知识发现和数据挖掘的发展,8日亚太会议,2004年,页3 - 12。

[8]Breiman, L。“装袋预测”。Machine Learning 26, 1996, pp. 123–140.

[9]Breiman, L。“随机森林。”Machine Learning 45, 2001, pp. 5–32.

[11]Breiman, L。j·h·弗里德曼,r . a . Olshen和c . j .石头。分类和回归树。博卡拉顿FL:查普曼&大厅,1984。

[12]Christianini, N。和j . Shawe-Taylor。介绍支持向量机和其他基于学习的方法。金宝app英国剑桥:剑桥大学出版社,2000年。

[13]Dietterich, t .“近似统计检验监督分类学习算法进行比较。“神经计算,10卷,7号,1998年,页1895 - 1923。

[14]Dietterich, T。,g . Bakiri。“解决多级通过纠错输出编码学习问题。“人工智能研究杂志》上。2卷,1995年,页263 - 286。

[15]Escalera, S。o . Pujol, p . Radeva。“在三元纠错输出编码解码过程。“IEEE模式分析与机器智能。32卷,问题7,2010年,页120 - 134。

[16]Escalera, S。o . Pujol, p . Radeva。“分离性的三进制码稀疏的纠错输出编码的设计。Recogn”模式。问题3卷30日,2009年,页285 - 297。

[17]球迷,R.-E。,林志信。陈,C.-J。林。“工作集选择使用二阶信息训练支持向量机。金宝app“《机器学习研究,6卷,2005年,页1889 - 1918。

[18]Fagerlan,分子量年代Lydersen p . Laake。“McNemar检验法检测二进制配对数据:Mid-p和渐近比精确的条件。“BMC医学研究方法。13卷,2013年,页1 - 8。

[19]Freund, Y。“一种更健壮的增强算法。”arXiv: 0905.2138 v1, 2009。

[20]Freund, y和r e Schapire。“决策理论推广应用程序在线学习和提高。”J. of Computer and System Sciences, Vol. 55, 1997, pp. 119–139.

[21]弗里德曼,J。“贪婪的近似函数:一个梯度增加机器”。Annals of Statistics, Vol. 29, No. 5, 2001, pp. 1189–1232.

[22]弗里德曼,J。、t . Hastie和r . Tibshirani。“添加剂逻辑回归:统计视图的提振。”Annals of Statistics, Vol. 28, No. 2, 2000, pp. 337–407.

[23]Hastie, T。,r . Tibshirani。“成对分类耦合。“统计年鉴。问题2卷。26日,1998年,页451 - 471。

[24]Hastie, T。、r . Tibshirani和j·弗里德曼。统计学习的要素,第二版。纽约:施普林格,2008年。

[25],c . h和c·j·林。“大规模线性支持向量回归。金宝app“机器学习研究期刊》的研究,13卷,2012年,页3323 - 3348。

[26]Ho·t·K。“随机子空间方法构造决定森林。”IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 20, No. 8, 1998, pp. 832–844.

[27],c·J。林,k . w . Chang c . j ., s . s . Keerthi和美国Sundararajan。“双坐标下降法对大规模线性支持向量机。”25日机器学习国际会议的程序,ICML ' 08年,2001年,页408 - 415。

[28]许,Chih-Wei,常致中,林智仁。支持向量分类的实用指南。金宝app可以在https://www.csie.ntu.edu.tw/ ~ cjlin /论文/指导/ guide.pdf

[29],Q。,x切,l . Zhang和d。“基于社区软边缘特性评估和选择。“Neurocomputing。73卷,2010年,页2114 - 2124。

[30]Kecman V。,t - m。黄,m·沃格特。“迭代单一数据训练算法内核机器从巨大的数据集:理论和性能。“在支持向金宝app量机:理论和应用程序。由脂肪编辑,255 - 274。柏林:斯普林格出版社,2005年版。

[31]Kohavi扩大>摘要对分类器的精度:决策树的混合。第二次国际会议”知识发现和数据挖掘,1996。

[32]兰开斯特H.O.“意义测试在离散分布。“JASA, 56个卷,294年,1961年,页223 - 234。

[33]兰福德,J。、l·李和张。通过截断梯度”稀疏的在线学习。“j·马赫。学习。Res, 10卷,2009年,页777 - 801。

[34]Loh, W.Y.“回归树与公正的变量选择和交互检测。“Statistica学报,12卷,2002年,页361 - 386。

施[35]Loh, W.Y.和屈服强度。“分裂选择分类树的方法。“Statistica中央研究院7卷,1997年,页815 - 840。

[36]McNemar检验法,问:“注意抽样误差的相关比例或百分比之间的区别。“心理测量学,12卷,第二,1947年,页153 - 157。

[37]Meinshausen认为:“分位数回归森林。“机器学习研究期刊》的研究,7卷,2006年,页983 - 999。

[38]Mosteller, f”一些统计测量主观对药物反应的问题。“生物识别技术,8卷,3号,1952年,页220 - 226。

[39]Nocedal, j .和s·j·莱特。数值优化,第二版,纽约:施普林格,2006年。

[40]Schapire, r . e . et al。“提高保证金:新解释投票方法的有效性。”Annals of Statistics, Vol. 26, No. 5, 1998, pp. 1651–1686.

[41]Schapire, R。和y歌手。“改进提高算法使用confidence-rated预测。”Machine Learning, Vol. 37, No. 3, 1999, pp. 297–336.

[42]Shalev-Shwartz, S。、y歌手和n Srebro。“毕加索牌汽车:原始估计Sub-Gradient解决支持向量机。”24日的国际会议在机器学习,ICML ' 07年,2007年,页807 - 814。

[43]塞弗特,C。t . Khoshgoftaar, j . Hulse和a·纳波利塔诺。“RUSBoost:提高分类性能,当训练数据倾斜。”19th International Conference on Pattern Recognition, 2008, pp. 1–4.

[44]Warmuth, M。,j .廖和g . Ratsch。“完全纠正提高算法最大化利润。”Proc. 23rd Int’l. Conf. on Machine Learning, ACM, New York, 2006, pp. 1001–1008.

[45],t·F。林,c . j ., r·翁。“多层次分类的概率估计成对耦合。《机器学习研究。5卷,2004年,页975 - 1005。

[46]赖特,s . J。、r·d·诺瓦克和m a t Figueiredo。“稀疏重建可分近似。“反式。团体,Proc。57卷,没有7,2009年,页2479 - 2493。

肖[47],林。“双重平均正规化方法随机学习和在线优化。“j·马赫。学习。Res, 11卷,2010年,页2543 - 2596。

[48]徐,魏。“对最优平均通过大规模学习与随机梯度下降法。”2011岁的CoRR、abs / 1107.2490。

[49]Zadrozny, b .“减少多级二进制耦合概率估计。“捏2001:学报的发展神经信息处理系统14日,2001年,页1041 - 1048。

[50]Zadrozny B。安倍、j·朗格弗德和n。“加权Cost-Proportionate厂商学习的例子。数据挖掘“第三IEEE国际会议上,435 - 442。2003年。

[51]周,Z.-H。和X.-Y。刘。”多厂商学习。“计算智能。问题3卷。26日,2010年,页232 - 257 CiteSeerX。