【Hadoop 2.7.1】HDFS Shell操作的简单试验
创始人
2024-03-20 21:08:52
0

【Hadoop 2.7.1】HDFS Shell操作的简单试验

HDFS提供了多种数据访问的方式,其中,命令行的形式是最简单的,同时也是开发者最容易掌握的方式

文章目录

  • 【Hadoop 2.7.1】HDFS Shell操作的简单试验
      • HDFS Shell命令的使用
      • 上传文件(put)
      • 查看文件列表(ls)
      • 统计文件大小(du)
      • 创建文件夹(mkdir)
      • 移动文件(mv)
      • 递归创建文件夹(mkdir -p)
      • 创建新文件(touchz)
      • 复制文件到指定目录(cp)
      • 复制文件到本地(get)
      • 递归删除目录(rm)
      • 查看文件内容(cat)
      • 将文件以文本形式输出(text)
      • 合并HDFS多个文件并传至本地( getmerge)



HDFS Shell命令的使用

hadoop fs 
hadoop dfs 
hdfs dfs 

如果使用的Hadoop3版本,需要使用

hdfs dfs



上传文件(put)

用法:

#上传JDK文件到HDFS的根路径
hadoop fs -put ./jdk-8u341-linux-x64.tar.gz /
# 也可以一次上传多个文件
hadoop fs -put file1 file2 …… /
# hadoop3必须用此命令上传
hdfs dfs -put

image-20221130152746101

在HDFS的WEB管理系统中点击Utilities -> Browse the file system可以看到刚刚上传的文件

img-xV5uNLNm-1670250161728


查看文件列表(ls)

# 查看上传到HDFS根路径中的文件
hadoop fs -ls / 
# 递归查询根目录及根目录下所有目录下的文件
hadoop fs -R /
# 另外一种命令形式
hdfs dfs -ls /
# 通过设置的NameNode名称也可以查看根路径的文件
hadoop fs -ls hdfs://192.168.0.109:9000/ 

image-20221130153930676



统计文件大小(du)

# 统计根目录下所有文件和目录的大小
hadoop fs -du /
# 统计多个文件的大小
hadoop fs -du /a /b /c /test /app/hadoop-2.7.1.tar.gz
# 也可以统计单各文件的大小
hadoop fs -du /app/hadoop-2.7.1.tar.gz

image-20221205221450180



创建文件夹(mkdir)

# 创建文件夹 test
hadoop fs -mkdir /test

image-20221130162351135



移动文件(mv)

# 移动jdk文件到test文件夹中
hadoop fs -mv /jdk-8u341-linux-x64.tar.gz /test

img-4x9fEkR9-1670250414825



递归创建文件夹(mkdir -p)

# 递归创建temp目录和temp目录下的temp1目录
hadoop fs -mkdir -p /temp/temp1

img-SoUciai5-1670250385123



创建新文件(touchz)

# 在/temp路径下创建新的空文件文件 `C`
hadoop fs -touchz /temp/c

image-20221204154427613



复制文件到指定目录(cp)

# 复制/temp/c文件到/app目录下
hadoop fs -cp /temp/c /app

img-KFzKhZdp-1670250161733



复制文件到本地(get)

#移动/app目录下的新文件`c`到本地的用户根目录
hadoop fs -get /app/c ~

img-eC67KNYc-1670250161734



递归删除目录(rm)

# 递归删除temp目录,rm删除 -R递归
hadoop fs -rm -R /temp

img-AwYySzE8-1670250161735



查看文件内容(cat)

# 查看a b c三个文件的内容
hadoop fs -cat /a /b /c

img-0eDe8s7x-1670250161736



将文件以文本形式输出(text)

#使用方法:hadoop fs -text 
#允许的格式是zip和TextRecordInputStream
hadoop fs -text /a

image-20221205221856064



合并HDFS多个文件并传至本地( getmerge)

# 合并a b c三个文件,并上传到本地当前目录,本地新文件命名为testfile
hadoop fs -getmerge /a /b /c testfile 

img-PdqPbWr0-1670250161737

相关内容

热门资讯

AWSECS:访问外部网络时出... 如果您在AWS ECS中部署了应用程序,并且该应用程序需要访问外部网络,但是无法正常访问,可能是因为...
银河麒麟V10SP1高级服务器... 银河麒麟高级服务器操作系统简介: 银河麒麟高级服务器操作系统V10是针对企业级关键业务...
【NI Multisim 14...   目录 序言 一、工具栏 🍊1.“标准”工具栏 🍊 2.视图工具...
AWSElasticBeans... 在Dockerfile中手动配置nginx反向代理。例如,在Dockerfile中添加以下代码:FR...
不能访问光猫的的管理页面 光猫是现代家庭宽带网络的重要组成部分,它可以提供高速稳定的网络连接。但是,有时候我们会遇到不能访问光...
​ToDesk 远程工具安装及... 目录 前言 ToDesk 优势 ToDesk 下载安装 ToDesk 功能展示 文件传输 设备链接 ...
北信源内网安全管理卸载 北信源内网安全管理是一款网络安全管理软件,主要用于保护内网安全。在日常使用过程中,卸载该软件是一种常...
AWS管理控制台菜单和权限 要在AWS管理控制台中创建菜单和权限,您可以使用AWS Identity and Access Ma...
AWR报告解读 WORKLOAD REPOSITORY PDB report (PDB snapshots) AW...
月入8000+的steam搬砖... 大家好,我是阿阳 今天要给大家介绍的是 steam 游戏搬砖项目,目前...