A.Job是个静态的概念,被提交到系统开始执行时,该Job就拥有一个Instance
B.工作流描述了Job中各个Instance之间的依赖关系和运行约束,本质是个DAG(有向无环图)
C.单个SQLquery、命令或者MapReduce程序统称为一个Task
D.Instance是个动态概念,每个Instance只能运行一次
Apache Spark是专为大规模数据处理而设计的快速通用的计算引擎,将Job中间输出结果可以保存在()中,从而不再需要读写HDFS。因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的Map Reduce的算法。