【Hadoop 2.7.1】HDFS Shell操作的简单试验
创始人
2024-03-20 21:08:52
0

【Hadoop 2.7.1】HDFS Shell操作的简单试验

HDFS提供了多种数据访问的方式,其中,命令行的形式是最简单的,同时也是开发者最容易掌握的方式

文章目录

  • 【Hadoop 2.7.1】HDFS Shell操作的简单试验
      • HDFS Shell命令的使用
      • 上传文件(put)
      • 查看文件列表(ls)
      • 统计文件大小(du)
      • 创建文件夹(mkdir)
      • 移动文件(mv)
      • 递归创建文件夹(mkdir -p)
      • 创建新文件(touchz)
      • 复制文件到指定目录(cp)
      • 复制文件到本地(get)
      • 递归删除目录(rm)
      • 查看文件内容(cat)
      • 将文件以文本形式输出(text)
      • 合并HDFS多个文件并传至本地( getmerge)



HDFS Shell命令的使用

hadoop fs 
hadoop dfs 
hdfs dfs 

如果使用的Hadoop3版本,需要使用

hdfs dfs



上传文件(put)

用法:

#上传JDK文件到HDFS的根路径
hadoop fs -put ./jdk-8u341-linux-x64.tar.gz /
# 也可以一次上传多个文件
hadoop fs -put file1 file2 …… /
# hadoop3必须用此命令上传
hdfs dfs -put

image-20221130152746101

在HDFS的WEB管理系统中点击Utilities -> Browse the file system可以看到刚刚上传的文件

img-xV5uNLNm-1670250161728


查看文件列表(ls)

# 查看上传到HDFS根路径中的文件
hadoop fs -ls / 
# 递归查询根目录及根目录下所有目录下的文件
hadoop fs -R /
# 另外一种命令形式
hdfs dfs -ls /
# 通过设置的NameNode名称也可以查看根路径的文件
hadoop fs -ls hdfs://192.168.0.109:9000/ 

image-20221130153930676



统计文件大小(du)

# 统计根目录下所有文件和目录的大小
hadoop fs -du /
# 统计多个文件的大小
hadoop fs -du /a /b /c /test /app/hadoop-2.7.1.tar.gz
# 也可以统计单各文件的大小
hadoop fs -du /app/hadoop-2.7.1.tar.gz

image-20221205221450180



创建文件夹(mkdir)

# 创建文件夹 test
hadoop fs -mkdir /test

image-20221130162351135



移动文件(mv)

# 移动jdk文件到test文件夹中
hadoop fs -mv /jdk-8u341-linux-x64.tar.gz /test

img-4x9fEkR9-1670250414825



递归创建文件夹(mkdir -p)

# 递归创建temp目录和temp目录下的temp1目录
hadoop fs -mkdir -p /temp/temp1

img-SoUciai5-1670250385123



创建新文件(touchz)

# 在/temp路径下创建新的空文件文件 `C`
hadoop fs -touchz /temp/c

image-20221204154427613



复制文件到指定目录(cp)

# 复制/temp/c文件到/app目录下
hadoop fs -cp /temp/c /app

img-KFzKhZdp-1670250161733



复制文件到本地(get)

#移动/app目录下的新文件`c`到本地的用户根目录
hadoop fs -get /app/c ~

img-eC67KNYc-1670250161734



递归删除目录(rm)

# 递归删除temp目录,rm删除 -R递归
hadoop fs -rm -R /temp

img-AwYySzE8-1670250161735



查看文件内容(cat)

# 查看a b c三个文件的内容
hadoop fs -cat /a /b /c

img-0eDe8s7x-1670250161736



将文件以文本形式输出(text)

#使用方法:hadoop fs -text 
#允许的格式是zip和TextRecordInputStream
hadoop fs -text /a

image-20221205221856064



合并HDFS多个文件并传至本地( getmerge)

# 合并a b c三个文件,并上传到本地当前目录,本地新文件命名为testfile
hadoop fs -getmerge /a /b /c testfile 

img-PdqPbWr0-1670250161737

相关内容

热门资讯

保存时出现了1个错误,导致这篇... 当保存文章时出现错误时,可以通过以下步骤解决问题:查看错误信息:查看错误提示信息可以帮助我们了解具体...
汇川伺服电机位置控制模式参数配... 1. 基本控制参数设置 1)设置位置控制模式   2)绝对值位置线性模...
不能访问光猫的的管理页面 光猫是现代家庭宽带网络的重要组成部分,它可以提供高速稳定的网络连接。但是,有时候我们会遇到不能访问光...
表格中数据未显示 当表格中的数据未显示时,可能是由于以下几个原因导致的:HTML代码问题:检查表格的HTML代码是否正...
本地主机上的图像未显示 问题描述:在本地主机上显示图像时,图像未能正常显示。解决方法:以下是一些可能的解决方法,具体取决于问...
表格列调整大小出现问题 问题描述:表格列调整大小出现问题,无法正常调整列宽。解决方法:检查表格的布局方式是否正确。确保表格使...
不一致的条件格式 要解决不一致的条件格式问题,可以按照以下步骤进行:确定条件格式的规则:首先,需要明确条件格式的规则是...
Android|无法访问或保存... 这个问题可能是由于权限设置不正确导致的。您需要在应用程序清单文件中添加以下代码来请求适当的权限:此外...
【NI Multisim 14...   目录 序言 一、工具栏 🍊1.“标准”工具栏 🍊 2.视图工具...
银河麒麟V10SP1高级服务器... 银河麒麟高级服务器操作系统简介: 银河麒麟高级服务器操作系统V10是针对企业级关键业务...