如何在面试中解释各种机器学习模型( 二 )


如何在面试中解释各种机器学习模型

文章插图
 
例如,如果我们创建一个决策树,第三个决策树,它将预测0 。但是,如果我们依靠所有4个决策树的模式,则预测值为1 。这就是随机森林的力量 。
AdaBoostAdaBoost是一种增强算法,类似于"随机森林",但有两个重要区别:
· AdaBoost通常不是由树木组成,而是由树桩组成的森林(树桩是只有一个节点和两片叶子的树) 。
· 每个树桩的决定在最终决定中的权重不同 。总误差较小(准确度较高)的树桩具有较高的发言权 。
· 创建树桩的顺序很重要,因为每个后续树桩都强调了在前一个树桩中未正确分类的样本的重要性 。
梯度提升Gradient Boost与AdaBoost类似,因为它可以构建多棵树,其中每棵树都是从前一棵树构建的 。与AdaBoost可以构建树桩不同,Gradient Boost可以构建通常具有8至32片叶子的树木 。
更重要的是,Gradient与AdaBoost的不同之处在于构建决策树的方式 。梯度提升从初始预测开始,通常是平均值 。然后,基于样本的残差构建决策树 。通过采用初始预测+学习率乘以残差树的结果来进行新的预测,然后重复该过程 。
XGBoostXGBoost本质上与Gradient Boost相同,但是主要区别在于残差树的构建方式 。使用XGBoost,可以通过计算叶子与前面的节点之间的相似性得分来确定残差树,以确定哪些变量用作根和节点 。
谢谢阅读!希望在阅读完本文后,您将通过突出重点了解一下如何总结各种机器学习模型 。同样,这并不意味着要深入解释每篇文章的复杂性 。根据上面的总结,请随意学习所有不完全有意义的模型!
特伦斯·辛ShinTwin的创始人| 让我们在LinkedIn上建立联系| 项目组合在这里 。
(本文翻译自Terence S的文章《How to Explain Each machine Learning Model at an Interview》,参考:
https://towardsdatascience.com/how-to-explain-each-machine-learning-model-at-an-interview-499d82f91470)




推荐阅读