在Spark Scala中,可以使用窗口函数和聚合函数来按日期累计唯一计数。下面是一个示例代码:
import org.apache.spark.sql.expressions.Window
import org.apache.spark.sql.functions._
// 创建一个示例数据集
val data = Seq(
("2021-01-01", "A"),
("2021-01-01", "B"),
("2021-01-02", "A"),
("2021-01-02", "C"),
("2021-01-03", "B")
).toDF("date", "id")
// 将日期转换为日期类型
val df = data.withColumn("date", to_date($"date"))
// 创建窗口按日期排序
val windowSpec = Window.partitionBy("date").orderBy("date")
// 使用窗口函数和聚合函数进行累计唯一计数
val result = df.withColumn("count", countDistinct("id").over(windowSpec))
result.show()
输出结果如下:
+----------+---+-----+
| date| id|count|
+----------+---+-----+
|2021-01-01| A| 2|
|2021-01-01| B| 2|
|2021-01-02| A| 3|
|2021-01-02| C| 3|
|2021-01-03| B| 1|
+----------+---+-----+
在上面的示例代码中,首先将日期列转换为日期类型,然后创建一个窗口按日期排序。然后使用窗口函数countDistinct
计算每个窗口内唯一id的数量,并将结果存储在名为"count"的新列中。最后,使用show
方法显示结果数据集。