Spark组件
Last updated
Was this helpful?
Last updated
Was this helpful?
Spark组件是面向使用Scala/Java的Spark用户,用户编写Spark应用程序,编译打包成jar后,通过Spark组件完成部署。
作业Jar包:通过该配置框上传你的Spark应用程序Jar包,必填项
主类名:指定你的Spark应用程序的入口类,即main函数所在的类,必填项
程序参数:指定你的Spark应用程序所需的参数,即传给main函数的参数,可选项
配置文件:指定你的Spark应用程序用到的配置文件,可选项
num-executors:指定分配的Executor个数
driver-memory:指定Driver需要的内存大小,单位为GB
executor-cores:指定每个Executor上需要的cpu core数
executor-memory:指定每个Executor上需要的内存大小,单位为GB
spark-conf:指定Spark的属性参数,换行分割,例如 spark.default.parallelism=200