A.HIVE构建于HDFS和MapReduce之上
B.HIVE使用类SQL的HQL语言作为查询接口
C.HIVE的并行执行主要依赖MapReduce来实现
D.HIVE不能运行在Spark上
A.输入的文件尽量使用大文件
B.合理的分配map和reduce的任务的数量
C.压缩中间数据,减少1/0
D.在map之后先进行bine处理,减少1/0
A.抽象层次低,需要手工编写代码来完成,使用上难以上手
B.只提供两个操作,Map和Reduce,表达力欠缺
C.处理逻辑隐藏在代码细节中,没有整体逻辑
D.中间结果也放在HDFS文件系统中
A.入口段照明
B.过渡段照明
C.中间段照明
D.出口段照明
散列表A[10]中,若采用线性探查方法解决冲突,则在该散列表上进行等概率成功搜索的平均搜索长度为()。
A、2.60
B、3.14
C、3.71
D、4.33