第一步:新建一个maven工程
第二部:命名工程名
第三步:新建一个文件夹,并设置为sources root
第四步:pom编写
4.0.0 com.cn.spark spark-day01 1.0-SNAPSHOT 8 8 org.apache.hadoop hadoop-client 2.7.1 org.apache.maven.plugins maven-compiler-plugin 3.6.1 1.8 1.8 UTF-8
第五步:新建一个Scala类
注意:此步可能找不到Scala,需要引入
具体步骤为
1.项目构建
2.点击+
3.添加Scala,如果有Scala环境,会默认识别版本
最后会引入Scala,如下
第六步:引入spark相关jar包
选择自己的spark安装包,里边有jar包目录
第七步:新建一个Scala
第八步:编写代码验证
package com.cn.wordcountimport org.apache.spark.{SparkConf, SparkContext}object Driver {def main(args: Array[String]): Unit = {val conf = new SparkConf().setMaster("local").setAppName("wordCount")val sc = new SparkContext(conf)val data = sc.textFile("hdfs://hadoop01:9000/data", 2)val result=data.flatMap{line=>line.split(" ")}.map{word=>(word,1)}.reduceByKey((x,y)=>x+y)
// result.foreach(line=>println(line))result.saveAsTextFile("hdfs://hadoop01:9000/result03")}}
第九步:运行结果(打印到控制台,并且将数据存储到Hadoop中hdfs中)
上一篇:Js逆向教程20-Hook基础