设置集群的参数: hive.security.authorization.enabled=true hive.security.authorization.cr...
2016-07-07 17:15 回复了该问题在0.94/0.96等版本中这个确实不是很好处理,你根据rowkey扫描来做吧。设置Startkey,endkey()来达到获取最后一条的效果。 如果是在0...
2016-07-06 19:20 回复了该问题SSIS在读取excel文件时会根据首行来判断数据类型及长度。 尝试进行如下做法:在excel源上右键—属性,编辑excel的链接字符串: 在原有的链接字符...
2016-07-06 19:03 回复了该问题改下map端输出的值类型,例如改为IntWritable 然后在map函数中对value值进行转换,然后context.writer()输出
2016-07-06 08:40 回复了该问题使用rdd中的 方法: saveAsTextFile("文件")
2016-07-05 13:05 回复了该问题可能是你的shared_buffers 设置过大造成的。
2016-07-05 12:56 回复了该问题wal_keep_segments是只日志文件的最小量。 此配置的详细说明可参看: [url]http://www.runoob.com/manual/Post...
2016-07-05 12:54 回复了该问题使用sqoop直接导库的数据到hadoop吧 然后可以使用hive写sql进行查询
2016-07-05 12:38 回复了该问题个人观点: 国内大数据商业起步在2014年就开始了,2015年是很多大数据公司获得融资的时间窗口 目前的应用场景主要是:帮助企业构建一体化的大数据平台,包含分析...
2016-07-01 08:43 回复了该问题能的。 给你一个官网的示例: https://www.mongodb.com/blog/post/using-mongodb-hadoop-spark-part...
2016-07-01 08:38 回复了该问题如果想不打包就运行java程序,则需要在eclipse中配置hadoop的插件。 建议你在Linux环境中开发hadoop的MR程序
2016-07-01 08:36 回复了该问题我们在实际使用过程中使用yarn来进行spark的任务调度。 参考:https://spark.apache.org/docs/1.6.0/running-...
2016-06-28 13:41 回复了该问题从你最擅长的方式入手: 努力学习sql编程,包括调优、各种函数使用等,这会极大地提升你做数据处理时的效率 其次了解下数据处理的工具,例如kettle,datas...
2016-06-28 13:19 回复了该问题从你这个问题上,没看出是想问什么?是想学点这个方面经验,还是想认识些人呢? 做移动互联网都会关注这几个指标:UV、拉新、注册转化率、留存等 这些数据指标都是运营...
2016-06-28 13:14 回复了该问题