首页 > 代码库 > <spark> ~/spark/conf/spark-default.conf 配置文件
<spark> ~/spark/conf/spark-default.conf 配置文件
因为看到我参考的Hadoop/spark集群搭建的文档中的都没有对 /spark-default.conf 的配置
合理地对 /spark-default.conf 进行配置,能够提高执行效率
---------------------------------------------------------------------------------------
先cp复制模板文件
然后添加配置信息
spark.master spark://master:7077
spark.default.parallelism 10
spark.driver.memory 2g
spark.serializer org.apache.spark.serializer.KryoSerializer
spark.sql.shuffle.partitions 50
<spark> ~/spark/conf/spark-default.conf 配置文件
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。