当我们提交一个Spark作业到YARN上,资源通常情况下会使用如下的分配脚本模板:
spark-submit --class class-name --master yarn --deploy-mode cluster --driver-memory 4g --num-executors 2 --executor-memory 2g --executor-cores 2具体参数的含义如下图所示:
每个executor的最大核数
num-executors=每个node的executor数 * work节点的数每个node的executor数 = 总核数 / 每个executor的最大cup核数,具体是图解通过参数
yarn.nodemanager.resource.cpu-vcores进行配置,比如该值配置为:33,资源参数executor-cores的分配值为:5,那么每个node的图解executor数 = (33 - 1[操作系统预留])/ 5 = 6,假设集群节点为10,那么num-executors = 6 * 10 =60
executor-memory该参数的资源值依赖于:yarn-nodemanager.reaource.memory-mb,该参数限定了每个节点的container的最大内存值。
该参数的分配值=yarn-nodemanager.reaource.memory-mb / 每个节点的executor数量 ,如果yarn的图解参数配置为160,那么
yarn-nodemanager.reaource.memory-mb / 每个节点的香港云服务器资源executor数量 = 160 / 6 ≈ 26GB
Spark2.X的内存管理模型如下图所示:
Spark中的内存使用大致包括两种类型:执行和存储。
执行内存是分配指用于用于shuffle、join、图解排序、资源聚合等计算的分配内存
存储内存是指用于在集群中持久化和广播内部数据的内存。
在Spark中,图解执行内存和存储内存共享一个统一的区域。当没有使用执行内存时,存储内存可以获取所有可用内存,反之亦然。如有必要,执行内存可以占用存储存储,但仅限于总存储内存使用量低于某个阈值。
该设计确保了几种理想的特性。首先,站群服务器不使用缓存的应用程序可以使用整个空间执行,从而避免不必要的磁盘溢出。其次,使用缓存的应用程序可以保留最小存储空间。最后,这种方法为各种工作负载提供了合理的开箱即用性能,而无需用户内部划分内存的专业知识。
虽然有两种相关配置,但一般情况下不需要调整它们,因为默认值适用于大多数工作负载:
spark.memory.fraction默认大小为(JVM堆内存 - 300MB)的一小部分(默认值为0.6)。剩下的空间(40%)保留用于用户数据结构,Spark中的内部元数据,以及在稀疏和异常大的记录的情况下防止OOM错误。spark.memory.storageFraction默认大小为(JVM堆内存 - 300MB)0.60.5。
源码库