对于spark remote shuffle service(以下简称RSS),在社区其实早就有探讨SPARK-25299,只不过一直没有达成一致,且目前的内置的shuffle service 也能满足大部分的场景,也就被搁置了,但是由于kubernetes的越来越火热,spark
社区也慢慢的集成了spark on k8s,当然k8s社区也集成了spark,具体区别见spark on k8s 与 spark on k8s operator的对比.
但是就目前的spark on k8s来说shuffle还是存在问题的:
对于进一步的原因可以参考为什么企业都会去优化Spark Shuffle Service
所以各个公司就提出了spark shuffle的解决方案,如趣头条和阿里的RSS ,facebook的cosco, LinkedIn的Magnet,以及Facebook的Riffle方案
其中Magnet和Riffle方案都是先将shuffle文件传到本地,然后再进行merge或者upload到远程的服务上
趣头条和阿里的RSS以及cosco实现的更好
我们知道一旦进行了shuffle操作以后,很大概率会进行spill,也就是写磁盘的过程。
而寻道时间跟文件的读取方式有关,磁盘服务时间跟磁盘的类型有关。
我们能做的就是让文件进行顺序读写,以及减少文件的数量,因为每读一个文件就得重新寻道
2. spark shuffle的过程中会涉及三次写磁盘
而这三次磁盘的写操作无疑给shuffle的效率减少了不少。
所以一个好的RSS的方案必然从:
其实,RSS的优点还是很多的: