spakr 提交任务

发布时间:2024年01月18日
./bin/spark-submit \
  --class <main-class> \
  --master <master-url> \
  --deploy-mode <deploy-mode> \
  --conf <key>=<value> \
  ... # other options
  <application-jar> \
  [application-arguments]

例子:

../../bin/spark-submit  \--master spark://node01:7077,node02:7077   --class org.apache.spark.examples.SparkPi  ./spark
  -examples_2.11-2.3.4.jar    100000

参数解释:

--class:用于设置程序运行main函数所在类全名

--master:集群地址

--deploy-mode:部署模式(client/cluster)

--conf:spark.default.parallelism=300?指定并行的task数量为300

--driver-memory 2g Driver内存

--driver-cores 2 Driver核数

--executor-memory 2g :用于设置每个Executor进程的CPU core数量

--executor-cores 2??用于设置每个Executor进程的CPU core数量

--num-executors 24 用于设置Spark作业总共要用多少个Executor进程来执行

文章来源:https://blog.csdn.net/dongwen000/article/details/135651031
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。