首页 > 继续教育> 护理继续教育
题目内容 (请给出正确答案)
[单选题]

大数据计算服务中的fact_order表的生命周期属性设置成了30天,开发人员通过以下命令创建了一张新的fact_lottery_order表:createtablefact_lottery_orderlikefact_order;对于新表的描述正确的是:()。

A.fact_lottery_order的生命周期属性是无穷大

B.fact_lottery_order的生命周期属性不会被设置

C.fact_lottery_order的生命周期属性是30

D.fact_lottery_order的生命周期属性是0

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“大数据计算服务中的fact_order表的生命周期属性设置成…”相关的问题
第1题
在大数据计算服务(MaxCompute,原ODPS)的数据仓库中的订单表fact_order,建表语句如下:createtablefact_order(order_idstring,order_amtdouble,order_dtstring)paititionedby(dtstring);此表中的数据是从ods_order加工而来,ods_order建表语句如下:createtableods_order(order_idstring.order_amtbigint,order_dtstring);ods_order中有一条记录数据值是order_idorder_amtorder_dt000110020160301运行SQL语句将数据从ods_order加载到fact_order中:insertoverwritetablefact_orderpartition(dt=’20160301’)select*fromods_order;对此语句的执行结果描述正确的是:()。

A.语句可以执行,但是这条数据会被当作脏数据丢弃

B.目标表与源表中的数据类型不一致,执行出错

C.提交SQL时会报语法错误

D.语句可以执行,order_amt的值会被自动的转为double类型

点击查看答案
第2题
大数据计算服务中,临时数据表tmp_item是一张非分区表,开发人员在建表时指定了lifecycle属性为30,且使用一次后未再进行任何操作和访问。30天后这张表会()。

A.tmp_item会被自动重命名为tmp_item.deleted

B.tmp_item表会被自动删除掉

C.不会任何变更

D.tmp_item中的数据会被清空,表结构仍存在

点击查看答案
第3题
使用大数据计算服务tunnel命令上传数据文件data.csv到表t_data成功后,不小心又之行了一次该上传命令,以下说法中正确的是:()。

A.最后一次上传的数据会追加插入到表t_data中去

B.最后一次上传的数据会覆盖插入到表t_data中去

C.记录重复会报错退出

D.最后一次上传的数据会把t_data中已存在的相关记录更新

点击查看答案
第4题
大数据计算服务中的日志表log是一张分区表,分区键是dt,每天产生一个分区用于存储当天新增的数据,现在共有dt=‘20160101’至dt=‘20160131’共31个分区的数据,为了删除20160101当天新增的数据,可以通过()方式实现。

A.deletefromlogwheredt=‘20160101’

B.altertablelogdroppartition(dt=‘20160101’)

C.truncatetablewheredt=‘20160101’

D.droppartitionlog(dt=‘20160101’)

点击查看答案
第5题
大数据计算服务中,检查数据何时被修改时需要参考lastmodifiedtime属性,对于分区表,在分区级别和表级别都有lastmodified属性。对此属性的影响,以下描述正确的有:()。

A.更新一个分区中的数据时,只会影响该分区的lastmodifiedtime属性

B.更新一个分区中的数据时,表的lastmodifiedtime属性会被更新

C.更新一个分区中的数据时,分区的lastodifiedtime属性会被更新

D.更新一个分区中的数据时,不会更新表和分区的lastmodifiedtime

点击查看答案
第6题
大数据计算服务(MaxCompute,原ODPS)中客户信息表的建表语句如下:createtablecustomer(cust_idbigint,provincestring,addrstring,full_addrstring);其中full_addr字段需要根据源表中的province和addr拼成一个完整的地址,源表中的一条记录的province值为空(NULL),addr为’文一西路969号’,则concat(province,addr)的值为()。

A.运行出错

B.“文一西路969号”

C.‘文一西路969号’

D.空值(NULL)

点击查看答案
第7题
大数据计算服务表fact_sale_detail的建表语句如下:createtablefact_sale_detail(sale_datedatetime,regionstring,amtdecimal)partitionedby(dtstring);包括dt=’20160229’,dt=’20160301’,dt=’20160302’,dt=’20160303’共四天的数据,每个分区中只包含当天的销售数据。Udf_substr为自定义的数据(UDF),功能和substr相同但是性能更好。现在想要统计3月份的按天销售汇总金额,以下()方式经过分区剪裁后只需要付3个分区的数据久可以完成计算。

A.selectdt,sum(amt)fromfact_sale_detailwheredtlike‘201603%’groupbydt

B.selectdt,sum(amt)fromfact_sale_detailwheresubstr(dt,1,6)=‘201603’groupbydt

C.selectdt,sum(amt)fromfact_sale_detailwheredtin(‘20160301’,’20160302’,’20160303’)groupbydt

D.selectdt,sum(amt)from_sale_detaolwhereudf_substr(dt,1,6)=’201603’groupbydt

点击查看答案
第8题
在大数据计算服务(MaxCompute,原ODPS)中,使用MapReduce开发一个分词程序,即输入为保存在表中的多篇文章(每篇文章一行纪录),参考一个字典文件(该文件会经常更新)进行分词。简而言之,在执行该程序的时候,既需要输入待分词的文章(已经保存在表中了),又需要输入字典(为经常变动的本地文件),以下最合理的解决方案为:()。

A.将这个字典与源代码一起进行打包,直接执行即可

B.每次都将字典文件作为资源上传到大数据计算服务上,然后MR中通过资源的方式来访问

C.将字典打包jar包,使用jar命令执行MR程序时,通过resources参数指定该jar包

D.将字典文件保存在本地,在MR中通过访问本地最新的字典文件实现

点击查看答案
第9题
大数据计算服务(MaxCompute,原ODPS)tunnel命令提供了丰富的参数,可以通过参数设置,对上传或者下载操作进行控制,现在有一个大文件要上传至Maxcompute某表中,想先检查一下该文件内容是否和表的定义匹配,并不实际上传,以免文件中有错误记录会导致上传出错。可以使用()参数实现这个功能。

A.错误记录丢弃:-dbr

B.字段分隔符:-fd

C.扫瞄选项:-s

D.空字符串显示:-ni

点击查看答案
第10题
大数据计算服务(MaxCompute,原ODPS)提供了MapReduce编程接口,用户可以使用MapReduce提供的SDK编写程序处理大数据计算服务的中的数据。目前提供了()语言的SDK。

A.Perl

B.C++

C.Python

D.Java

点击查看答案
第11题
目前《互联网企业数据服务收入情况》(IV511表)中,“互联网数据服务收入”指标主要包括()。

A.大数据处理服务收入

B.云存储服务收入

C.云计算服务收入

D.云加工服务收入

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改