AWS Glue - avro转parquet - Glue作业从目录中获取到一个空的数据帧。
创始人
2024-11-16 03:31:14
0

要将Avro文件转换为Parquet文件,并使用AWS Glue作业从目录中获取一个空的数据帧,可以按照以下步骤进行操作。

首先,创建一个AWS Glue作业,将以下代码示例保存为Python脚本,并将其上传到S3或本地。

import sys
from awsglue.transforms import *
from awsglue.utils import getResolvedOptions
from pyspark.context import SparkContext
from awsglue.context import GlueContext
from pyspark.sql import SparkSession

# 创建Spark上下文
sc = SparkContext()
glueContext = GlueContext(sc)
spark = glueContext.spark_session

# 获取作业参数
args = getResolvedOptions(sys.argv, ['JOB_NAME'])

# 创建动态数据框
empty_df = spark.createDataFrame([], "field1: string, field2: int, field3: double")

# 将数据框转换为Parquet文件
empty_df.write.parquet("s3://your-bucket/empty_data.parquet")

# 结束作业
job.commit()

确保将"s3://your-bucket/empty_data.parquet"替换为目标S3存储桶的正确路径。

接下来,在AWS Glue控制台中创建一个新的作业。在作业配置页面上,选择Spark 2.x作为ETL语言。在"脚本文件名或脚本路径"字段中,指定上传的Python脚本的路径。

然后,配置作业参数和脚本参数,确保提供所需的AWS Glue和Spark配置。点击"下一步"。

在"数据源"页面上,选择Avro格式的数据源,指定输入数据的路径和格式。点击"下一步"。

在"目标"页面上,选择Parquet格式作为目标格式,指定输出数据的路径。点击"下一步"。

最后,在"调度"页面上,配置作业的调度选项。点击"下一步"。

然后,点击"完成"以创建作业。在作业概览页面上,点击"运行作业"以运行作业。

作业将从指定的目录中读取空的Avro文件,并将其转换为Parquet文件。

相关内容

热门资讯

保存时出现了1个错误,导致这篇... 当保存文章时出现错误时,可以通过以下步骤解决问题:查看错误信息:查看错误提示信息可以帮助我们了解具体...
汇川伺服电机位置控制模式参数配... 1. 基本控制参数设置 1)设置位置控制模式   2)绝对值位置线性模...
不能访问光猫的的管理页面 光猫是现代家庭宽带网络的重要组成部分,它可以提供高速稳定的网络连接。但是,有时候我们会遇到不能访问光...
不一致的条件格式 要解决不一致的条件格式问题,可以按照以下步骤进行:确定条件格式的规则:首先,需要明确条件格式的规则是...
本地主机上的图像未显示 问题描述:在本地主机上显示图像时,图像未能正常显示。解决方法:以下是一些可能的解决方法,具体取决于问...
表格列调整大小出现问题 问题描述:表格列调整大小出现问题,无法正常调整列宽。解决方法:检查表格的布局方式是否正确。确保表格使...
表格中数据未显示 当表格中的数据未显示时,可能是由于以下几个原因导致的:HTML代码问题:检查表格的HTML代码是否正...
Android|无法访问或保存... 这个问题可能是由于权限设置不正确导致的。您需要在应用程序清单文件中添加以下代码来请求适当的权限:此外...
【NI Multisim 14...   目录 序言 一、工具栏 🍊1.“标准”工具栏 🍊 2.视图工具...
银河麒麟V10SP1高级服务器... 银河麒麟高级服务器操作系统简介: 银河麒麟高级服务器操作系统V10是针对企业级关键业务...