支持向量机计算题 支持向量机算法是一种常见的什么算法( 二 )


A)文本和超文本分类 B)图像分类 C)新闻文章的聚类 D)以上所有
问题背景:16 - 18
假设你在训练支持向量机后训练了一个具有线性决策边界的支持向量机,你正确的发现了你的支持向量机的模型还不合适 。
16)下面选项中哪一个是你更能考虑进行迭代支持向量机的?
A)增加你的数据点 B)减少你的数据点 C)尝试计算的变量 D)尝试减少变量
17)假设你在前一个问题中给出了正确的答案 。你认为实际上会发生什么?
1.我们正在降低偏差 2.我们正在降低方差 3.我们正在增加偏差 4.我们正在增加方差
A)1和2 B)2和3 C)1和4 D)2和4
18)在上面的问题中,假设你想要更改其中一个(支持向量机)超参数,以便效果与之前的问题相同,也就是模型不适合?
A)我们将增加参数C B)我们将减小参数C C)C中的变化不起作用 D)这些都不是
19)在支持向量机中使用高斯核函数之前,我们通常使用特征归一化 。那么什么是真正的特征归一化?
我们进行特征归一化时,以便新特征占主导地位有时,对于分类变量,特征归一化是不可行的当我们在支持向量机中使用高斯核函数时,特征归一化总是有帮助的A)1 B)1和2 C)1和3 D)2和3
问题背景:20-22
假设你正在处理4分类问题,并且你希望在数据上训练支持向量机模型,因为你正在使用One-vs-all方法 。现在回答以下问题
20)在这种情况下我们需要训练支持向量机模型多少次
A)1 B)2 C)3 D)4
21)假设你的数据中具有相同的类分布 。现在,比如说在一对一训练中进行1次训练,支持向量机模型需要10秒钟 。那么端到端训练一对一的方法需要多少秒?
A)20 B)40 C)60 D)80
22)假设你的问题现在已经发生了改变 。现在,数据只有2个类 。在这种情况下,你认为我们需要训练支持向量机多少次?
A)1 B)2 C)3 D)4
问题背景:23 - 24
假设你使用的支持向量机的线性核函数为2次多项式,现在认为你已将其应用于数据上并发现它完全符合数据,这意味着,训练和测试精度为100% 。
23)现在,假设你增加了这个内核的复杂度(或者说多项式的阶数) 。你认为会发生什么?
A)增加复杂性将使数据过度拟合 B)增加复杂性将使数据不适应模型 C)由于你的模型已经100%准确,因此不会发生任何事情 D)以上都不是
24)在上一个问题中,在增加复杂性之后,你发现训练精度仍然是100% 。你认为这背后的原因是什么?
由于数据是固定的,我们拟合的多项式项或参数,因此算法开始记忆数据中的所有内容由于数据是固定的,SVM不需要在大的假设空间中进行搜索A)1 B)2 C)1和2 D)这些都不是
25)支持向量机中的kernel是什么?
kernel是将低维数据映射到高维空间这是一个相似函数A)1 B)2 C)1和2 D)这些都不是
答案与讲解
1)正确答案:A
这三个例子的位置使得删除它们中的任何一个都会在约束中引入松弛效果 。因此决策边界将完全改变 。
2)正确答案:B
从数据另一方面来说,数据中的其余点不会对决策边界产生太大影响 。
3)正确答案:B
统计中的泛化误差通常是样本外误差,它是用来衡量模型预测先见未知的数据值的准确性 。
4)正确答案:A
在如此高水平的误差分类惩罚水平上,软边际将不会存在,因为没有错误的余地 。
5)正确答案:A
硬边界意味着SVM在分类方面非常严格,并且试图在训练集中完美的完成分类,从而导致过度拟合 。
6)正确答案:A
分类边界清晰的数据集与支持向量机的分类效果最好
7)正确答案:D
支持向量机的有效性取决于你如何选择上面提到的三个基本需求,从而最大化你的效率,减少误差和过度拟合 。
8)正确答案:A
它们是最接近超平面的点,也是最难分类的点 。它们还对决策边界的位置有直接影响 。
9)正确答案:C
当数据具有噪声和重叠点时,如何在不分类的情况下画出清晰的超平面是一个很大的问题 。
10)正确答案:B
SVM调整中的gamma参数表示超平面附近的或远离超平面的点的影响
对于较低的gamma值,模型将被过于约束并包括训练数据集中的所有的点,而不会真正的捕获形状 。
对于更高的gamma值,模型将很好地捕获数据集的形状 。
11)正确答案:C
代价参数决定了支持向量机被允许在多大程度上“弯曲”数据 。对于低的代价参数,你的目标是一个光滑平稳的超平面,对于更高的代价,你的目标是正确地分类的点 。它也简称为分类错误的代价 。


推荐阅读