试题详情

(单选)Spark 和 MapReduce 都是 Hadoop 中最基础的分布式计算框架,关于两者共同点的描述,以下哪一项是正确的?

A都提供了Map和Reduce数据操作方法

B都需要依赖HDFS存储中间结果数据

C都是用来处理非SQL类的批处理作业

D都可以用于复杂数据挖掘和机器学习场景