A.复杂的批量数据处理:通常时间跨度在数十分钟到数小时之间B.基于历史数据的交互式查询:通常时间跨度在数十秒到数分钟之间C.基于实时数据流的数据处理:通常时间跨度在数十秒到数分钟之间D.基于实时数据流的数据处理:通常时间跨度在数百毫秒到数秒之间
A.Spark在借鉴Hadoop MapReduce优点的同时,很好地解决了MapReduce所面临的问题B.Spark的计算模式也属于MapReduce,但不局限于Map和Reduce操作C.Hadoop MapReduce编程模型比Spark更灵活D.Hadoop MapReduce提供了内存计算,可将中间结果放到内存中,对于迭代运算效率更高
A.表达能力有限B.磁盘IO开销大C.延迟高D.在前一个任务执行完成之前,其他任务就无法开始,难以胜任复杂、多阶段的计算任务