吾本轻狂|主成分分析,PCA( 三 )
defdraw_vector(v1,v0,ax=None):ax=axorplt.gca()arrowprops=dict(arrowstyle='plt.scatter(X[:,0],X[:,1],alpha=0.3)forlength,vectorinzip(pca.explained_variance_,pca.components_):v=vector*3*np.sqrt(length)draw_vector(pca.mean_,pca.mean_+v)plt.axis('equal')
Components_=V
Principalaxesinfeaturespace,representingthedirectionofmaximumvarianceinthedata 。
特征空间中的主轴(主要成分) , 展示数据中最大方差的方向 , (要看你需要 , 需要两个主成分 , n_components=2时就是前两大) , 确定的是主成分的方向 。
Pca.explained_variance_:array,shape(n_components,)
Explained_variance_=(S**2)/(n_samples-1)
Theamountofvarianceexplainedbyeachoftheselectedcomponents.
选择的成分的方差的大小 , 确定的是对应的方向上的大小 , 也就是上图中两个黑色箭头的长短 , 排序是S中方差从大到小的排序 。
Pca.mean_:array,shape(n_feature)
Per-featureempiricalmean,estimatedfromthetrainingset.EqualtoX.mean,
计算出整个训练集中点群的中间点位置 , 即上图中两个黑色箭头的交叉点(箭头的起点) 。
因为我们给定的n_components=2 , 所以上图中有两个向量 , V确定了这两个矢量的方向 , 在计算时我们使用了sqrt(explained_variance_) , 对explained_variance开了根号 , 而explained_variance是由S的平方除以(n_samples-1)得到的 , 所以这里的结果和S是线性的关系 , 从而确定了这两个矢量的大小 , 由此画出了上图中两个黑色的既有长度 , 又有大小的箭头 。 箭头越长说明图上的散点在这个方向上越分散 , 不同的点在这个方向上更能有较大的区别 , 而sigma值更小的 , 表现出来箭头也更短 , 所以长箭头表示的方向比短箭头表示的方向在这组数据中更为主要 , 图中两个黑色箭头互相垂直 。
推荐阅读
- 吾本轻狂|美国巨头微软始料未及,替换行动开始?倪光南院士公开发声
- 吾本轻狂|这3句“暗语”一说,导购员不敢轻易忽悠你,去实体店购买手机时
- 吾本轻狂|国产芯片虽成“靠山”,但性能或将全面倒退,华为再遭“断供”
- 吾本轻狂|局域网接口频繁Up/Down故障排查思路分销
- 吾本轻狂|衷心感谢且听风啸啸网友,关于Luminar4无法在PS中使用的解决方法
- 吾本轻狂|让该行业巨头猝不及防,华为真的爆发了!一领域4年排名中国第二
- 吾本轻狂|全网首发:12306抢票算法大曝光?(十张图搞定)
- 吾本轻狂|腾讯市值瞬间蒸发3600亿,国产社交App在美彻底沦陷,封禁微信
- 吾本轻狂|11将与鸿蒙2.0同时发布,新功能让我没有不升级的理由!,华为EMUI
- 吾本轻狂|成立智慧交通联合创新实验室,赤峰交警携手平安智慧城市