spark读取hdfs文件,block与executor?

一个
■网友
hdfs一个block对应到rdd一个partition,默认情况下。一个partition由一台executor完成这也是正常的。所以你的问题是没有停止。猜你的code也没几行,我也假设没bug好了。跑到最后没弹出输出栏是不是?以为没有跑完是不是?按下回车吧!别问我是怎么知道的。不然的话,还是检查下代码吧。


    推荐阅读