在本地模式下运行Spark应用程序时,资源消耗是相对较低的,因为应用程序只会在本地的一个进程中运行,而不需要启动集群资源。以下是一个使用Spark的本地模式运行应用程序的示例代码:
from pyspark.sql import SparkSession
# 创建SparkSession对象
spark = SparkSession.builder.master("local").appName("MyApp").getOrCreate()
# 读取数据文件
data = spark.read.csv("data.csv", header=True, inferSchema=True)
# 执行一些转换和操作
result = data.filter(data.age > 30).groupBy("gender").count()
# 打印结果
result.show()
# 停止SparkSession对象
spark.stop()
在上述示例中,SparkSession.builder.master("local")
指定了Spark应用程序运行在本地模式下。appName("MyApp")
用于设置应用程序的名称。getOrCreate()
方法用于获取或创建一个SparkSession对象。
接下来,使用spark.read.csv()
方法读取一个CSV文件,并将其存储在一个DataFrame中。然后,使用filter()
方法过滤出年龄大于30的数据,再使用groupBy()
和count()
方法进行分组和计数操作。最后,使用show()
方法打印结果。
最后,使用spark.stop()
方法停止SparkSession对象,释放资源。