分享

spark-shell 执行代码报错

xw2016 发表于 2016-5-30 23:31:57 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 4 7375
spark-shell 执行代码val rdd2=rdd1.flatMap(_.split(" ")).map(x=>(x,1)).reduceByKey(_+_)  报错:

org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.ipc.StandbyException): Operation category READ is not supported in state standby

已有(4)人评论

跳转到指定楼层
einhep 发表于 2016-5-31 11:39:53
是在yarn上?哪个版本的
回复

使用道具 举报

xw2016 发表于 2016-5-31 16:00:51
einhep 发表于 2016-5-31 11:39
是在yarn上?哪个版本的

基于zookeeper的standalone HA.
回复

使用道具 举报

hahaxixi 发表于 2016-5-31 19:39:56
应该是你启用HA造成的,可能有些数据是在启用hdfs HA就已经存在了,启用了HA以后,元数据没有升级。
回复

使用道具 举报

xw2016 发表于 2016-5-31 23:35:38
已解决了,在yun01-nn-01上使用hdfs dfsadmin -safemode get 查看,发现另一个master的safemode为on,将之改为off即可。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条