当前位置: 代码迷 >> 综合 >> spark.driver.maxResultSize参数详解
  详细解决方案

spark.driver.maxResultSize参数详解

热度:83   发布时间:2023-09-14 14:08:43.0

参数含义及默认值:

Limit of total size of serialized results of all partitions for each Spark action (e.g. collect). Should be at least 1M, or 0 for unlimited. Jobs will be aborted if the total size is above this limit. Having a high limit may cause out-of-memory errors in driver (depends on spark.driver.memory and memory overhead of objects in JVM). Setting a proper limit can protect the driver from out-of-memory errors.

每个Spark action的所有分区的序列化结果的总大小限制(例如,collect行动算子)。 应该至少为1M,或者为无限制。 如果超过1g,job将被中止。 如果driver.maxResultSize设置过大可能会超出内存(取决于spark.driver.memory和JVM中对象的内存开销)。 设置适当的参数限制可以防止内存不足。

默认值:1024M
设置为0则为无限制,但是有OOM的风险

  相关解决方案