前言
最近被gradle折腾的欲仙欲死。
gradle想把所有依赖打进jar包主要有两种方式:一种是重写jar动作,一种是用第三方插件。
为了装x,我一直都是用的第一种方式,结果出了问题解决不了,为了不影响进度,只能先用第三方了。
重写jar动作
主要是into这一句,可以参照gradle的api文档。里面专门讲了这一块。
这种方式生成的jar包,是把所有的依赖全部打进了lib中。我一直在用这种方式打包。
然后在用spark-submit提交任务的时候,仍然会出现缺包的问题,比如我在运行spark-streaming程序的时候,就是死活找不到KafkaUtil$。但是相关的jar包的确是打进去了,百思不得其解。
所以就用了下面这种方式。
jar {
manifest { //incubating版本,以后版本可能会改API
attributes("Main-Class": "com.KafkaWordCount",
"Implementation-Title": "Gradle")
}
into('lib') {
from configurations.runtime
}
}
shadow
贴了一整个我的测试程序。
这种方式在使用spark提交任务的时候就OK了。
plugins {
id 'com.github.johnrengelman.shadow' version '1.2.3'
id 'java'
id 'scala'
id 'idea'
id 'application'
}
group 'com.lagou'
version '1.0-SNAPSHOT'
sourceCompatibility = 1.7
targetCompatibility = 1.7
mainClassName="com.KafkaWordCount"
repositories {
mavenLocal() //使用maven本地库
mavenCentral()
}
ext{
scala_version = '2.10.6'
kafka_version = '0.8.2.2'
spark_version = '1.6.0'
}
//使用shadow插件打包,代替jar功能。
jar {
manifest { //incubating版本,以后版本可能会改API
attributes("Main-Class": "com.KafkaWordCount",
"Implementation-Title": "Gradle")
}
}
dependencies {
//scala
compile "org.scala-lang:scala-library:$scala_version"
compile "org.scala-lang:scala-compiler:$scala_version"
//spark
compile "org.apache.spark:spark-core_2.10:$spark_version"
compile "org.apache.spark:spark-streaming_2.10:$spark_version"
compile "org.apache.spark:spark-streaming-kafka_2.10:$spark_version"
//kafka
compile "org.apache.kafka:kafka_2.10:$kafka_version"
compile "org.apache.kafka:kafka-clients:$kafka_version"
//junit
testCompile group: 'junit', name: 'junit', version: '4.11'
}