A实时交互式计算场景
B离线批处理计算场景
C对延迟要求低的数据计算场景
D对延迟性要求不高的数据计算
(多选)分布式计算框架 M apReduce,用于大规模 数据集的并行计算,主要适用于哪些场景?
Spark生态系统已经发展成为一个可应用于大规模数据处理的统一分析引擎,它是基于内存计算的大数据并行计算框架,适用于各种各样的分布式平台的系统。 ----------- 【判断题】
以下哪些不是分布式计算框架?
首页
每日一练
打赏一下
浏览记录