IntelliJ IDEA Maven项目添加依赖自动提示
使用IntelliJ IDEA,我们在给Maven项目添加依赖时,可以设置让IDEA自动提示依赖包。
Preferences > Build, Execution, Deployment > Build Tools -> Maven > Repositories > Indexed Maven Repositores
选中URL,再点击Update
按钮。更新后,在添加依赖时,则可以自动提示了。

使用IntelliJ IDEA,我们在给Maven项目添加依赖时,可以设置让IDEA自动提示依赖包。
Preferences > Build, Execution, Deployment > Build Tools -> Maven > Repositories > Indexed Maven Repositores
选中URL,再点击Update
按钮。更新后,在添加依赖时,则可以自动提示了。
通过IDEA创建一个Maven项目, spark-streaming-demo
编辑pom.xml
文件
因为我们使用了CDH 5组件,所以需要引入CDH 5的Maven仓库。
在project
标签下面加入
1 | <repositories> |
在properties
标签下面添加组件版本信息
1 | <properties> |
在dependencies
标签里面添加如下依赖
1 | <!-- Hadoop 依赖--> |
这篇文章,我们选择记录最简单的安装方式,而非编译安装。
到Apache Spark官网的下载页面 http://spark.apache.org/downloads.html
选择Spark2.2.3版本,package type为Pre-built for Apache Hadoop 2.6,因为目前环境hadoop版本是hadoop-2.6.0-cdh5.7.0
1 | wget https://archive.apache.org/dist/spark/spark-2.2.3/spark-2.2.3-bin-hadoop2.6.tgz |
1 | vi ~/.bash_profile |
添加如下内容
1 | export SPARK_HOME=/usr/local/spark/spark-2.2.3-bin-hadoop2.6 |
执行source
命令让其配置生效
1 | source ~/.bash_profile |
1 | cd $SPARK_HOME |
从上面可以看出可以通过spark://host:port
, mesos://host:port
, yarn
和local
等方式启动Spark。
我们先采用本地
模式启动。
1 | bin/spark-shell --master local[2] |
启动成功,我们同时可以看看Spark context Web UI, http://localhost:4040