1.Spark启动警告:neither spark.yarn.jars not spark.yarn.archive is set,falling back to uploading libraries under SPARK_HOME
原因:
如果没设置spark.yarn.jars,每次提交到yarn,都会把$SPARK_HOME/jars打包成zip文件上传到HDFS对应的用户目录。而spark.yarn.jars可以指定HDFS某路径下包为公共依赖包,从而提高spark应用提交效率,节省空间解决:
1.在HDFS创建目录 /spark/jars 2.将$SPARK_HOME/jars下所有包上传到hdfs目录 /spark/jars 3.在spark-defaults.conf 中增加配置spark.yarn.jars hdfs://hostname/spark/jars/*
--------------------- 作者:shengpli 来源:CSDN 原文:https://blog.csdn.net/qq_23146763/article/details/70843913 版权声明:本文为博主原创文章,转载请附上博文链接!