分享

spark on yarn 的配置疑问

grinsky 发表于 2016-3-25 16:24:20 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 4 6239
spark在yarn模式下,若在spark-env.sh中加入了如下的配置

[mw_shl_code=xml,true]
export SPARK_EXECUTOR_MEMORY=1000m
export SPARK_WORKER_MEMORY=2500m
export SPARK_WORKER_CORES=1
export SPARK_WORKER_INSTANCES=2
export SPARK_DRIVER_MEMORY=2048M[/mw_shl_code]

这里的 INSTANCES  是指在每一台slave上启动的work数量还是整个集群启动的work的总数?

已有(4)人评论

跳转到指定楼层
轩辕依梦Q 发表于 2016-3-25 18:29:28
木知道,貌似没配置过这个参数,只配置过executor
回复

使用道具 举报

Alkaloid0515 发表于 2016-3-25 19:54:44
轩辕依梦Q 发表于 2016-3-25 18:29
木知道,貌似没配置过这个参数,只配置过executor

设置每个节点【机器】的工作进程的数量
回复

使用道具 举报

chimes298 发表于 2016-3-28 09:46:31
这个参数指每个节点启动的worker进程数,也就是每个节点JVM的数量。设置这个参数要同时设置SPARK_WORKER_CORES限制worker使用的内核数,否者每个worker都会尝试使用全部的cores
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条