ClassificationSVM
金宝app支持向量机(SVM)用于一类和二元分类
描述
ClassificationSVM
是一个金宝app支持向量机(SVM)分类器一个班和两个班的学习。训练有素的ClassificationSVM
分类器存储训练数据、参数值、先验概率、支持向量和算法实现信息。金宝app使用这些分类器来执行任务,例如拟合得分-后验概率转换函数(参见fitPosterior
)和预测新数据的标签(见预测
).
创建
创建一个ClassificationSVM
对象,使用fitcsvm
.
属性
对象的功能
紧凑的 |
减少支持向量机分类器的尺寸金宝app |
compareHoldout |
比较使用新数据的两种分类模型的准确性 |
crossval |
交叉验证支持向量机分类器金宝app |
discard金宝appSupportVectors |
线性支持向量机分金宝app类器的支持向量弃用 |
边缘 |
为支持向量机分类器找到分类边金宝app |
fitPosterior |
拟合支持向量机(SVM)分类器的后验概率金宝app |
incrementalLearner |
将二元分类支持向量机(SVM)模型转化为增量学习器金宝app |
损失 |
找出支持向量机分类器的分类误差金宝app |
保证金 |
为支持向量机分类器找到分类边界金宝app |
partialDependence |
计算部分依赖关系 |
plotPartialDependence |
创建部分依赖图(PDP)和个别条件期望图(ICE) |
预测 |
利用支持向量机(SVM)分类器对观测数据进行分类金宝app |
resubEdge |
利用再替换法求支持向量机分类器的分类边金宝app |
resubLoss |
通过再替换,找出支持向量机分类器的分类损失金宝app |
resubMargin |
利用再替换法求支持向量机分类器的分类裕度金宝app |
resubPredict |
在支持向量机分类器中对观测数据进行分类金宝app |
重新开始 |
恢复训练支持向量机(SVM)分类金宝app器 |
例子
更多关于
算法
支持向量机二元分类算法的数学公式请参见金宝app二元分类的支持向量机而且理解支持向量机金宝app.
南
,<定义>
,空字符向量(”
,空字符串(""
),< >失踪
值表示缺少的值。fitcsvm
删除与缺失响应对应的整行数据。当计算总权重时(见下一个项目),fitcsvm
忽略与至少一个缺失预测器的观测结果对应的任何权重。这种行为会导致平衡类问题中的不平衡先验概率。因此,观察框的约束可能不相等BoxConstraint
.fitcsvm
删除具有零权重或先验概率的观测值。对于两类学习,如果你指定代价矩阵 (见
成本
),然后软件更新类先验概率p(见之前
)pc中所述的惩罚 .具体地说,
fitcsvm
完成以下步骤:计算
正常化pc*所以更新后的先验概率和为1。
K是类的数量。
将成本矩阵重置为默认值
从训练数据中移除对应于零先验概率类的观测值。
对于两节课的学习,
fitcsvm
将所有观测权重归一化(参见权重
)求和为1。然后,该函数将规范化的权重重新归一化,使其总和为观测值所属类的更新先验概率。也就是观察的总权重j在课堂上k是wj是否采用归一化权重进行观察j;pc,k类的先验概率更新了吗k(见前一个项目)。
对于两节课的学习,
fitcsvm
为训练数据中的每个观察分配一个框约束。观测框约束的公式j是n是训练样本量,C0初始框约束(参见
“BoxConstraint”
名称-值对参数),和 观察的总权重是多少j(见前一个项目)。如果你设置
“标准化”,真的
和“成本”
,“之前”
,或“重量”
名称-值对参数fitcsvm
使用相应的加权均值和加权标准差对预测因子进行标准化。也就是说,fitcsvm
标准化预测j(xj)使用xjk是观察k(行)预测器j(列)。
假设
p
你在训练数据中期望的异常值的比例,和你设定的异常值的比例是多少OutlierFraction, p
.对于单类学习,软件将偏差项训练为100
p
训练数据中有%的观察值为负。软件实现强劲的学习两节课的学习。换句话说,软件试图删除100个
p
优化算法收敛时观测值的%。被移除的观测值对应的是幅度较大的梯度。
如果你的预测数据包含分类变量,那么软件通常对这些变量使用全虚拟编码。该软件为每个分类变量的每个级别创建一个虚拟变量。
的
PredictorNames
属性为每个原始预测器变量名存储一个元素。例如,假设有三个预测因子,其中一个是具有三个层次的分类变量。然后PredictorNames
是包含预测变量的原始名称的字符向量的1 × 3单元格数组。的
ExpandedPredictorNames
属性为每个预测变量(包括虚拟变量)存储一个元素。例如,假设有三个预测因子,其中一个是具有三个层次的分类变量。然后ExpandedPredictorNames
是包含预测变量和新虚拟变量名称的字符向量的1 × 5单元格数组。类似地,
β
属性为每个预测器存储一个beta系数,包括虚拟变量。的
金宝appSupportVectors
属性存储支持向量(包括虚拟变量)的预测器值。金宝app例如,假设有米金宝app支持向量和三个预测因子,其中一个是三级分类变量。然后金宝appSupportVectors
是一个n5矩阵。的
X
属性将训练数据存储为原始输入,不包括虚拟变量。当输入是一个表时,X
仅包含用作预测器的列。
对于表中指定的预测器,如果任何变量包含有序(序数)类别,软件将对这些变量使用序数编码。
对于一个变量k软件创建有序的关卡k- 1虚拟变量。的j虚变量为1以下级别j,+1的水平j+ 1通过k.
对象中存储的虚拟变量的名称
ExpandedPredictorNames
属性用值指示第一级+1.软件商店k- 1虚拟变量的其他预测器名称,包括级别2、3、…k.
所有求解器实现l1 .软边际最小化。
对于单类学习,该软件估计拉格朗日乘数,α1、……αn,以致于
参考文献
哈斯蒂、T.、R.蒂布谢拉尼和J.弗里德曼。统计学习的要素,第二版。纽约:施普林格,2008。
[2]肖科普夫,B. J. C.普拉特,J. C.肖-泰勒,A. J.斯莫拉和R. C.威廉姆森。“估算高维分布的支持度”金宝app神经第一版,卷13,第7号,2001,第1443-1471页。
[3]克里斯汀尼,N.和J. C.肖-泰勒。支持向量机和其他基于核的学习方法简介金宝app.英国剑桥:剑桥大学出版社,2000年。
[4]肖科普夫,B.和A.斯莫拉。核学习:支持向量机,正则化,优化及超越,自适应金宝app计算和机器学习。马萨诸塞州剑桥:麻省理工学院出版社,2002年。