这个是kafka的消息发送出现超时错误,和docker没有关系。 你应该检查下 kafka是否能正确连接到zookeeper,并检查下zookeeper相应的端...
2016-09-20 08:36 回复了该问题impala的数据类型可参看hive支持的数据类型: http://www.cloudera.com/content/www/zh-CN/documentati...
2016-09-20 08:33 回复了该问题可以发挥自己的优势,在系统架构方面进行锻炼,尤其是后台系统框架,这是你的优势所在,要尽可能再提升开发效率,例如做到自动生成包含筛选条件、图表、数据明细表格的统计...
2016-09-20 08:30 回复了该问题这个是由于impala查询hbase一般都是行scan导致,通常不建议进行sum、avg等impala常用的操作。 请参考官方文档说明: http://www....
2016-08-03 13:13 回复了该问题你的这个表名称是hive的关键字,所以才会有此问题。 你可以试试 drop table `order`
2016-08-03 13:07 回复了该问题示例代码:var sc= new SparkContext(); var sql = new org.apache.spark.sql.SQLContext(s...
2016-08-01 11:12 回复了该问题缺少jar包导致的。 hdfs.DFSConfigKeys 应该是hadoop-hdfs.jar里面的
2016-07-13 12:43 回复了该问题TextOutputFormat.setOutputCompressorClass(job, LzoCodec.class);
2016-07-08 12:44 回复了该问题你的那个错误缺少 guava jar 包。 guava是Google的类库,有很多重要的java类 给你一个下载链接: http://www.java2s.c...
2016-07-08 12:42 回复了该问题遵循现有的多维cube,可做如下优化: 1.升级为固态磁盘 2.提升服务器内存 3.提升服务器网卡 如果以上内容还是无法解决,那么你只能选择更新你的架构了。...
2016-07-07 17:26 回复了该问题shuffle和sort是MapReduce的核心过程。 在执行并发读取操作后,一定要根据唯一的key进行排序,将结果传递给reduce。这个过程会有两次排序。...
2016-07-07 17:20 回复了该问题为了提升mapreduce的计算性能,我们的hdfs文件大小在200 - 500m之间 当然,集群的网卡吞吐量也要提升上来,最好选择万兆
2016-07-07 17:17 回复了该问题