利用docker部署spark项目的端口问题-成都创新互联网站建设

关于创新互联

多方位宣传企业产品与服务 突出企业形象

公司简介 公司的服务 荣誉资质 新闻动态 联系我们

利用docker部署spark项目的端口问题

利用Docker  安装项目:

创新互联始终坚持【策划先行,效果至上】的经营理念,通过多达10多年累计超上千家客户的网站建设总结了一套系统有效的全网推广解决方案,现已广泛运用于各行各业的客户,其中包括:成都发电机回收等企业,备受客户表扬。

local模式要设置sparklocal.spark.driver.host

yarn模式中只设置sparklocal.spark.driver.host和可以启动,但是无法执行任何语句,需要再设置

sparkyarn.spark.driver.bindAddress

和 blockmanager

即可,在spark启动时指定对应host和bindaddress,docker指定访问设定的host和bindAddress

和 blockmanager即可

注意:sparkyarn.spark.driver.bindAddress是spark2.1.0才有的参数,之前是没有的。所以说,在2.1.0之前,spark与docker结合,以上办法行不通。


名称栏目:利用docker部署spark项目的端口问题
URL分享:http://kswsj.cn/article/jghdsg.html

其他资讯