org.apache.spark.SparkException: A master URL must be set in your configurationspark-submit --class financialLineItem.FinancialLineItem s3://trfsmallfffile/AJAR/SparkJob-0.1-jar-with-dependen
我正在尝试迁移我们的应用程序来激发纱线的运行。我使用cmdline作为spark-submit --master yarn --deploy-mode cluster -jars ${my_jars}.../launch_container.sh: line 4145: /bin/bash: Argument list too long
我认为原因可能是--jars ${my_jars}选项指定了太多的jars(用逗号分隔的684个罐子),我的问题是,有什么方法来指定所有的jars呢?或者我们