在mapper类中的static变量是可在整个mapper周期内被获取
2016-11-15 13:11 回复了该问题logstash有kafka的插件可以使用: input { kafka { zk_connect => "localhost:2181&qu...
2016-11-15 13:08 回复了该问题这个是hbase的底层实现,一般rowkey是不建议修改排序规则
2016-11-15 13:06 回复了该问题mapreduce可以处理xml文件试试使用XMLInputFormat 这个
2016-11-15 12:59 回复了该问题官方源代码地址:https://github.com/hortonworks
2016-11-01 13:09 回复了该问题如果你的这个txt文件在month=9 和month=10 这两个分区目录中都存在的话,则会load两次,且数据是一致的。
2016-11-01 13:07 回复了该问题使用hive里面自带的函数,例如TO_DATE等
2016-11-01 13:06 回复了该问题首先检查下对应的HDFS目录中的文本是否有值。 其次检查下你的hive表是否映射到正确的hdfs目录,row format是否正确
2016-11-01 13:05 回复了该问题使用unix_timestamp这个函数 例如获取秒 select (unix_timestamp(a字段)-unix_timestamp(b字段))/60
2016-11-01 13:04 回复了该问题这个是运行sh文件后,正常的日志信息输出 starting datanode logging to /usr/hadoop..... 这表示: 启动 datan...
2016-10-21 12:50 回复了该问题检查文件的权限,最好进行权限的修改,示例: chmod 600 ~/.ssh/authorized_keys .ssh的父目录权限最好要要设置为755
2016-10-21 12:46 回复了该问题出现这个问题可能是内存不足了,建议使用 --driver-memory --executor-memory 试试内存的设置
2016-10-21 12:42 回复了该问题