疑惑:Spark 从Hbase中读取数据显示错误

查看数: 5366 | 评论数: 3 | 收藏 0
关灯 | 提示:支持键盘翻页<-左 右->
    组图打开中,请稍候......
发布时间: 2017-11-24 14:56

正文摘要:

问题描述: 我用scala语言写了一个读取hbase中的表,并将数据打印出来的操作,但是从显示结果看,只有id字段值正确,其余的字段显示都有问题,但感觉代码没有什么问题,特贴出来,让大家看看有没有问题。 代码: o ...

回复

xuanxufeng 发表于 2017-11-26 11:25:29
本帖最后由 xuanxufeng 于 2017-11-26 11:27 编辑
xiaobaiyang 发表于 2017-11-26 10:18
你好,我试了下,还是不行,和之前的情况一样,我从网上查了,跟我的写法差不多,

]采用下面方式输出,不用show函数
frame.map(x => x(0) + " " + x(1)).collect().foreach(println)
xiaobaiyang 发表于 2017-11-26 10:18:30
yuwenge 发表于 2017-11-24 15:35
尝试下面修改:防止引用错误造成问题
val hBaseRDD = sc.newAPIHadoopRDD(conf, classOf[TableInputFormat ...

你好,我试了下,还是不行,和之前的情况一样,我从网上查了,跟我的写法差不多,
yuwenge 发表于 2017-11-24 15:35:38
尝试下面修改:防止引用错误造成问题
val hBaseRDD = sc.newAPIHadoopRDD(conf, classOf[TableInputFormat],
      classOf[ImmutableBytesWritable],
      classOf[Result])
上面替换为:
classOf[org.apache.hadoop.hbase.io.ImmutableBytesWritable],  
classOf[org.apache.hadoop.hbase.client.Result]

关闭

推荐上一条 /2 下一条