Spark Submit的ClassPath问题

开发 开发工具 Spark
我们的产品需要与客户的权限系统对接,即在登录时使用客户的认证系统进行认证。集成认证的方式是调用客户提供的jar包,调用userService的authenticate方法。同时,还需要在classpath中提供密钥的key文件。

[[193821]]

需求场景:

我们的产品需要与客户的权限系统对接,即在登录时使用客户的认证系统进行认证。集成认证的方式是调用客户提供的jar包,调用userService的authenticate方法。同时,还需要在classpath中提供密钥的key文件。

从需求看,这个集成并不复杂,且客户也提供了较翔实的接口文档与示例案例,开发工作量非常小。***的阻碍是客户有安全要求,内部的Jar包及其他文件都不能拷贝出来,而我们的开发环境是不能连接客户内网的。客户提供的Jar包并没有通过Maven来管理,我们只能采用直接导入的方式。在我们的Scala项目中,可以直接将要依赖的jar包放在module的lib文件夹下,在使用sbt执行编译和打包任务时,会自动将lib下的jar包放入classpath中。

那么,需要解决的***个问题是:由于客户的jar包不能拷贝到我的开发环境中,该如何处理该依赖?

既然在开发环境下拿不到这个jar包,那就做一个mock包吧。幸而需要编写的代码仅仅牵涉到ServiceConfig、ServiceManager与UserService三个类以及这些类的少数方法。其中ServiceConfig提供了认证需要的属性值,并通过set方法进行设置。因为最终需要调用的其实是UserService的authenticate方法,只需要为其提供一个简单的实现,并定义好其他相关的类型与方法,保证编译能够通过即可。

***个问题轻松解决。

由于我们使用了sbt assembly,并编写了对应的脚本来支持整个产品的打包工作,最终打包的结果是一个完整的mort.jar包。换言之,我们要依赖的外部Jar包也将被打包到最终的jar文件中。故而,第二个问题接踵而来:既然程序代码与外部jar包都被打包到最终的部署包中,当我们将该包拷贝到客户的部署环境中后,该如何将之前的mock包替换为真正的实现呢?

实际上,sbt assembly并不会将所有依赖的外部包都装配到最终的部署包中,只要在sbt的依赖中添加provided,就能保证第三方依赖包不被包含进部署包中。因此,我们可以改写sbt脚本,当执行assembly时,排除这个mock包,这是首要解决的方案。方法是在build.sbt中添加如下脚本:

  1. excludedJars in assembly := { 
  2.   val cp = (fullClasspath in assembly).value 
  3.   cp filter {_.data.getName == "customer_provided_mock.jar" } 

部署包确实不再包含这个外部依赖包了,但是在部署时,我们还得将真实的jar包放入到部署环境的classpath中。然而事与愿违,当我们将真正的jar包放在本地的classpath中时,运行时却找不到这个jar包。问题出现在哪里?

原因在于我们的程序并非一个普通的java程序,而是一个spark application,部署环境则为集群环境,运行该程序是通过spark submit的方式,将部署包提交到spark的cluster manager。这就需要分析spark submit的工作原理,如下图所示:

spark submit的工作原理

在集群部署模式下,Driver端通过spark-submit将spark application提交到集群,然后分发到Job到Worker节点。我们系统的主程序入口为com.bigeyedata.mort.Main,程序的运行是通过spark-submit去调用部署包的Main,即在spark driver下运行,而非在本地通过java启动虚拟机执行mort.jar。

这就是在本地设置classpath不生效的根本原因。

我注意到spark-submit提供了--jar参数,除了spark application这个jar包之外的其他jar包,都可以通过这个参数指定包,从而将其自动传送给集群。注意,若--jar指定了多个jar包,则通过分隔符,分隔,这与--driver-class-path的分隔符不同,后者使用:。因此,我修改了启动程序的脚本,将其设置为:

  1. exec $SPARK_HOME/bin/spark-submit \ 
  2. --class com.bigeyedata.mort.Main \ 
  3. --driver-class-path $MORT_HOME/libs/*.jar \ 
  4. --master yarn-client \ 
  5. --deploy-mode cluster \ 
  6. --jars /appcom/mort/thirdparty_jars/customer_provided.jar \ 
  7. --queue queue_0100_01 \ 
  8. $MORT_HOME/mort.jar > $MORT_HOME/mort.log 2>&1 

还有一个问题需要解决:如何放置用户认证需要的密钥key文件?

该文件仍然不能作为内嵌的资源文件打包到部署包中。因为这个文件的内容需要区分测试环境和生产环境。在部署到生产环境中时,需要替换为另一个key文件。客户的文档说明,需要将该文件(不是jar文件)放到运行的classpath中。

解决办法如前,仍然不能直接将key文件放入到本地的classpath中,而是利用spark-submit的--files参数。故而需要在前面的脚本中,为spark-submit添加如下内容:

  1. --files /appcom/mort/thirdparty_jars/clientKey.pk \ 

三个问题给我制造了一定的麻烦,尤其是第二个问题的解决,又让我温习了spark submit的工作原理,了解相关参数的作用。虽然花费了一些时间,但问题的解决还是颇有价值的。

【本文为51CTO专栏作者“张逸”原创稿件,转载请联系原作者】

戳这里,看该作者更多好文

责任编辑:赵宁宁 来源: 51CTO专栏
相关推荐

2016-12-04 15:42:24

混合云物联网运维管理

2010-06-01 15:25:27

JavaCLASSPATH

2012-09-18 01:22:33

Java环境变量Classpath

2009-07-09 16:18:01

JDKCLASSPATH设置

2020-07-28 07:59:21

线程池SubmitExecute

2016-12-07 09:38:53

SparkMapReduce

2017-04-13 13:30:56

SparkSpark MLlib机器学习

2017-12-21 11:19:40

SparkHive表HadoopRDD

2009-06-25 15:22:03

Struts2教程一个form多个sub

2017-08-14 10:30:13

SparkSpark Strea扩容

2009-02-04 11:00:44

2016-10-24 09:52:45

SparkRDD容错

2016-10-24 23:04:56

SparkRDD数据

2014-04-16 13:47:43

SparkYarn

2014-04-16 14:04:34

SparkStandalone

2018-05-10 09:51:39

Spark内存Hadoop

2017-10-13 10:36:33

SparkSpark-Strea关系

2014-02-14 15:43:16

ApacheSpark

2018-08-06 12:10:57

SparkRPC Server代码

2016-01-28 10:11:30

Spark StreaSpark大数据平台
点赞
收藏

51CTO技术栈公众号