题目内容
(请给出正确答案)
[单选题]
使用大数据开发套件DatalDE进行数据开发时,可以创建不同的任务,如果某任务内需要多节点配合并包含表示依赖关系的连线,则该任务的类型是()。
A.工作流任务
B.多节点任务
C.多工作流任务
D.节点任务
查看答案
如果结果不匹配,请 联系老师 获取答案
A.工作流任务
B.多节点任务
C.多工作流任务
D.节点任务
A.开发人员在数据开发和数据理模块中完成数据输入,数据加工,数据输出等工作
B.部署或是运维人员可以根据最新的开发结果生成发布包
C.部署人员或是运维人员可以通过发布管理模块完成发布包发布
D.运维人员可以在运维中心模块中,监控生产环境下的数据运行情况
A.MapReduce代码开发效率低下
B.使用SQL进行数据分析效率更高
C.大数据50%为报表类业务,需要仓库类大数据工具
D.Hive更简单
A.远程提交
B.本地提交
C.阻塞方式
D.非阻塞方式
A.将这个字典与源代码一起进行打包,直接执行即可
B.每次都将字典文件作为资源上传到大数据计算服务上,然后MR中通过资源的方式来访问
C.将字典打包jar包,使用jar命令执行MR程序时,通过resources参数指定该jar包
D.将字典文件保存在本地,在MR中通过访问本地最新的字典文件实现
A.Spark是一个基于内存迭代的框架
B.Spark是一个数据分析技术栈,包含了大数据的多种计算模式
C.Spark可以采用多种编程语言进行开发,比如Scal
D.Java
E.Spark计算过程中,数据不会落地到磁盘