第一步:新建一个maven工程

第二部:命名工程名

第三步:新建一个文件夹,并设置为sources root

第四步:pom编写
4.0.0 com.cn.spark spark-day01 1.0-SNAPSHOT 8 8 org.apache.hadoop hadoop-client 2.7.1 org.apache.maven.plugins maven-compiler-plugin 3.6.1 1.8 1.8 UTF-8
第五步:新建一个Scala类

注意:此步可能找不到Scala,需要引入
具体步骤为
1.项目构建

2.点击+

3.添加Scala,如果有Scala环境,会默认识别版本

最后会引入Scala,如下

第六步:引入spark相关jar包

选择自己的spark安装包,里边有jar包目录

第七步:新建一个Scala

第八步:编写代码验证
package com.cn.wordcountimport org.apache.spark.{SparkConf, SparkContext}object Driver {def main(args: Array[String]): Unit = {val conf = new SparkConf().setMaster("local").setAppName("wordCount")val sc = new SparkContext(conf)val data = sc.textFile("hdfs://hadoop01:9000/data", 2)val result=data.flatMap{line=>line.split(" ")}.map{word=>(word,1)}.reduceByKey((x,y)=>x+y)
// result.foreach(line=>println(line))result.saveAsTextFile("hdfs://hadoop01:9000/result03")}}
第九步:运行结果(打印到控制台,并且将数据存储到Hadoop中hdfs中)

上一篇:Js逆向教程20-Hook基础