Spark常用三种运行模式

您所在的位置:网站首页 Spark角色有哪些 Spark常用三种运行模式

Spark常用三种运行模式

2024-07-02 22:25| 来源: 网络整理| 查看: 265

Spark-shell 是以一种交互式命令行方式将Spark应用程序跑在指定模式上,也可以通过Spark-submit提交指定运用程序,Spark-shell 底层调用的是Spark-submit,二者的使用参数一致的,通过- -help 查看参数:

-master: 指定运行模式,spark://host:port, mesos://host:port, yarn, or local[n].-deploy-mode: 指定将driver端运行在client 还是在cluster.-class: 指定运行程序main方法类名,一般是应用程序的包名+类名-name: 运用程序名称-jars: 需要在driver端和executor端运行的jar,如mysql驱动包-packages: maven管理的项目坐标GAV,多个以逗号分隔-conf: 以key=value的形式传入sparkconf参数,所传入的参数必须是以spark.开头-properties-file: 指定新的conf文件,默认使用spark-default.conf-driver-memory:指定driver端运行内存,默认1G-driver-cores:指定driver端cpu数量,默认1,仅在Standalone和Yarn的cluster模式下-executor-memory:指定executor端的内存,默认1G-total-executor-cores:所有executor使用的cores-executor-cores: 每个executor使用的cores-driver-class-path: driver端的classpath-executor-class-path:executor端的classpath

sparkconf的传入有三种方式:

1.通过在spark应用程序开发的时候用set()方法进行指定2.通过在spark应用程序提交的时候用过以上参数指定,一般使用此种方式,因为使用较为灵活3.通过配置spark-default.conf,spark-env.sh文件进行指定,此种方式较shell方式级别低


【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3