它是一种模式匹配,常被用于回归和分类问题,但拥有庞大的子域,由数百种算法和各类问题的变体组成 。
例子:
- 感知器
- 反向传播
- Hopfield 网络
- 径向基函数网络(Radial Basis Function Network,RBFN)
- 在语音、语义、视觉、各类游戏(如围棋)的任务中表现极好 。
- 算法可以快速调整,适应新的问题 。
- 需要大量数据进行训练
- 训练要求很高的硬件配置
- 模型处于黑箱状态,难以理解内部机制
- 元参数(Metaparameter)与网络拓扑选择困难 。
文章插图
深度学习是人工神经网络的最新分支,它受益于当代硬件的快速发展 。
众多研究者目前的方向主要集中于构建更大、更复杂的神经网络,目前有许多方法正在聚焦半监督学习问题,其中用于训练的大数据集只包含很少的标记 。
例子:
- 深玻耳兹曼机(Deep Boltzmann Machine,DBM)
- Deep Belief Networks(DBN)
- 卷积神经网络(CNN)
- Stacked Auto-Encoders
支持向量机(Support Vector Machines)
文章插图
给定一组训练事例,其中每个事例都属于两个类别中的一个,支持向量机(SVM)训练算法可以在被输入新的事例后将其分类到两个类别中的一个,使自身成为非概率二进制线性分类器 。
SVM 模型将训练事例表示为空间中的点,它们被映射到一幅图中,由一条明确的、尽可能宽的间隔分开以区分两个类别 。
随后,新的示例会被映射到同一空间中,并基于它们落在间隔的哪一侧来预测它属于的类别 。
优点:
- 在非线性可分问题上表现优秀
- 非常难以训练
- 很难解释
文章插图
和集簇方法类似,降维追求并利用数据的内在结构,目的在于使用较少的信息总结或描述数据 。
这一算法可用于可视化高维数据或简化接下来可用于监督学习中的数据 。许多这样的方法可针对分类和回归的使用进行调整 。
例子:
- 主成分分析(Principal Component Analysis (PCA))
- 主成分回归(Principal Component Regression (PCR))
- 偏最小二乘回归(Partial Least Squares Regression (PLSR))
- Sammon 映射(Sammon Mapping)
- 多维尺度变换(Multidimensional Scaling (MDS))
- 投影寻踪(Projection Pursuit)
- 线性判别分析(Linear Discriminant Analysis (LDA))
- 混合判别分析(Mixture Discriminant Analysis (MDA))
- 二次判别分析(Quadratic Discriminant Analysis (QDA))
- 灵活判别分析(Flexible Discriminant Analysis (FDA))
- 可处理大规模数据集
- 无需在数据上进行假设
- 难以搞定非线性数据
- 难以理解结果的意义
文章插图
聚类算法是指对一组目标进行分类,属于同一组(亦即一个类,cluster)的目标被划分在一组中,与其他组目标相比,同一组目标更加彼此相似(在某种意义上) 。
例子:
- K-均值(k-Means)
- k-Medians 算法
- Expectation Maximi 封层 ation (EM)
- 最大期望算法(EM)
- 分层集群(Hierarchical Clstering)
- 让数据变得有意义
- 结果难以解读,针对不寻常的数据组,结果可能无用 。
文章插图
基于实例的算法(有时也称为基于记忆的学习)是这样学 习算法,不是明确归纳,而是将新的问题例子与训练过程中见过的例子进行对比,这些见过的例子就在存储器中 。
之所以叫基于实例的算法是因为它直接从训练实例中建构出假设 。这意味这,假设的复杂度能随着数据的增长而变化:最糟的情况是,假设是一个训练项目列表,分类一个单独新实例计算复杂度为 O(n)
例子:
- K 最近邻(k-Nearest Neighbor (kNN))
推荐阅读
- 一文读懂AI计算机视觉技术
- 外网主机A通过带内外网的Linux跳板机B直接访问内网机器C服务
- 中国茶业十大品牌
- 最便宜的美容秘方——姜枣茶
- 机器学习算法的终极对决
- 实用机器学习:什么是机器学习?看完就明白了
- Java 后端博客系统文章系统——No1
- 网络编程——协议基础
- Windows下效率神器盘点——快速启动插件
- 2 人工智能——机器学习免费教程