分享

spark集群如何查看运行日志

问题导读

1.spark编程中print内容,在控制台是否能看到?
2.输出的日志有哪两种?
3.如何才能看到spark运行日志?


比如,Spark应用程序代码如下:
defseq(a: Int, b: Int): Int = {
   println("seq: " + a + "\t "+ b)
   math.max(a, b)
}

defcomb(a: Int, b: Int): Int = {
   println("comb: " + a + "\t "+ b)
   a + b
  }

   vardata11= sc.parallelize(List((1, 3), (1, 2), (1, 4), (2, 3)))
    data11.aggregateByKey(1)(seq, comb).collect

我要查看println的日志的方法:
进入WEBUI页面:http://192.168.180.156:8085选择相关的应用程序,在页面点击表格中Running Applications 的ApplicationID:app-20160520200716-0023
,这时候你可以进入到Spark作业监控的WEB UI界面,比如http://192.168.180.156:8085/app/?appId=app-20160520200716-0023
在页面中,输出的日志有sterr和stdout两种,在stdout可以查看程序中输出的内容。
如果你在程序中使用了println(....)输出语句,这些信息会在stdout文件里面显示;其余的Spark运行日志会在stderr文件里面显示。
也可以直接进行日志文件进行查看,如:
/home/huangmeiling/lib/spark-1.5.1/work/app-20160520200716-0023/0/stdout
/home/huangmeiling/lib/spark-1.5.1/work/app-20160520200716-0023/0/stderr
实例如下:
20160520202707823.jpg

点击:stdout

2.jpg

日志文件:
3.jpg


出处:
http://blog.csdn.net/sunbow0

没找到任何评论,期待你打破沉寂

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条