hadoop文件操作(学习笔记),hadoop学习笔记
Hadoop Distributed File System(简称HDFS)是Hadoop分布式文件系统。
HDFS有着高容错性(fault-tolerant)的特点,并且设计用来部署在低廉的(low-cost)硬件上。而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求(requirements)这样可以实现流的形式访问(streaming access)文件系统中的数据。
Ø HDFS体系结构(***理解****)
l NameNode:名字节点
u NameNode是整个文件系统的管理节点。它维护着整个文件系统的文件目录树,文件/目录的元信息和每个文件对应的数据块列表。接收用户的操作请求。
u 文件包括:hdfs-site.xml的dfs.name.dir属性
² fsimage:元数据镜像文件。存储某一时段NameNode内存元数据信息。
² edits:操作日志文件。
² fstime:保存最近一次checkpoint的时间
u 以上这些文件是保存在linux的文件系统中。
l DataNode:数据节点
DateNode提供真实文件数据的存储服务。
说明:DataNode是文件系统的工作节点,他们根据客户端或者是namenode的调度存储和检索数据,并且定期向namenode发送他们所存储的块(block)的列表。
n 文件块(block):最基本的存储单位。对于文件内容而言,一个文件的长度大小是size,那么从文件的0偏移开始,按照固定的大小,顺序对文件进行划分并编号,划分好的每一个块称一个Block。HDFS默认Block大小是128MB,以一个256MB文件,共有256/128=2个Block.
可以在配置里指定dfs.block.size属性的大小.
n 不同于普通文件系统的是,HDFS中,如果一个文件小于一个数据块的大小,并不占用整个数据块存储空间
n Replication。多复本。默认是三个。
hdfs-site.xml的dfs.replication属性。
l Secondary NameNode:HA的一个解决方案。
n Secondary NameNode有两个作用:
一是镜像备份
二是日志与镜像的定期合并
注意:以上两个过程同时进行,称为checkpoint.
备注:
镜像备份的作用:
备份fsimage(fsimage是元数据发送检查点时写入文件);
日志与镜像的定期合并的作用:
将Namenode中edits日志和fsimage合并,防止(如果Namenode节点故障,namenode下次启动的时候,会把fsimage加载到内存中,应用edit log,edit log往往很大,导致操作往往很耗时。)
n Secondary NameNode的工作流程
1.secondary通知namenode切换edits文件
2.secondary从namenode获得fsimage和edits(通过http)
3.secondary将fsimage载入内存,然后开始合并edits
4.secondary将新的fsimage发回给namenode
5.namenode用新的fsimage替换旧的fsimage
n 什么时候checkpiont
1.fs.checkpoint.period 指定两次checkpoint的最大时间间隔,默认3600秒。
2.fs.checkpoint.size规定edits文件的最大值,一旦超过这个值则强制checkpoint,不管是否到达最大时间间隔。默认大小是64M。
3.HDFS的shell操作(***必须掌握***)
l 调用文件系统(FS)Shell命令应使用 bin/hadoop fs 的形式。
l 所有的FS shell命令使用URI路径作为参数。
URI格式是scheme://authority/path。HDFS的scheme是hdfs,对本地文件系统,scheme是file。其中scheme和authority参数都是可选的,如果未加指定,就会使用配置中指定的默认scheme。
例如:/parent/child可以表示成hdfs://namenode:namenodePort/parent/child,或者更简单的/parent/child(假设配置文件是namenode:namenodePort)
l 大多数FS Shell命令的行为和对应的Unix Shell命令类似。
Ø HDFS常见的shell操作有以下三种:
命令格式:
hadoop fs {args}
hadoop dfs {args}
hdfs dfs {args}
详细使用见附件:hadoop-shell.pdf
说明:
hadoop fs:使用面最广,可以操作任何文件系统。
hadoop dfs与hdfs dfs:只能操作HDFS文件系统相关(包括与Local FS间的操作),前者已经Deprecated,一般使用后者。
Ø 列举一些常用的HDFS的shell
格式:hdfs dfs 【选项】【参数】
常用的选项如下:
-help [cmd] //显示命令的帮助信息
-ls(r) <path> //显示当前目录下所有文件
-du(s) <path> //显示目录中所有文件大小
-count[-q] <path> //显示目录中文件数量
-mv <src> <dst> //移动多个文件到目标目录
-cp <src> <dst> //复制多个文件到目标目录
-rm(r) //删除文件(夹)
-put <localsrc> <dst> //本地文件复制到hdfs
-copyFromLocal //同put
-moveFromLocal //从本地文件移动到hdfs
-get [-ignoreCrc] <src> <localdst> //复制文件到本地,可以忽略crc校验
-getmerge <src> <localdst> //将源目录中的所有文件排序合并到一个文件中
-cat <src> //在终端显示文件内容
-text <src> //在终端显示文件内容
-copyToLocal [-ignoreCrc] <src> <localdst> //复制到本地
-moveToLocal <src> <localdst>
-mkdir <path> //创建文件夹
-touchz <path> //创建一个空文件
一、测试HDFS文件下载:
pom文件
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<modelVersion>4.0.0</modelVersion>
<groupId>com.zl</groupId>
<artifactId>hadoop</artifactId>
<version>0.0.1-SNAPSHOT</version>
<dependencies>
<!--单元测试 -->
<dependency>
<groupId>junit</groupId>
<artifactId>junit</artifactId>
<version>4.12</version>
<scope>test</scope>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-common</artifactId>
<version>2.7.3</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-hdfs</artifactId>
<version>2.7.3</version>
</dependency>
<!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-client -->
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-client</artifactId>
<version>2.7.3</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-mapreduce-client-core</artifactId>
<version>2.7.3</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-mapreduce-client-jobclient</artifactId>
<version>2.7.3</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-mapreduce-client-common</artifactId>
<version>2.7.3</version>
</dependency>
<dependency>
<groupId>jdk.tools</groupId>
<artifactId>jdk.tools</artifactId>
<version>1.7</version>
<scope>system</scope>
<systemPath>${JAVA_HOME}/lib/tools.jar</systemPath>
</dependency>
</dependencies>
</project>
Java文件
package com.zl.utils;
import java.io.FileInputStream;
import java.io.FileNotFoundException;
import java.io.FileOutputStream;
import java.io.IOException;
import java.net.URI;
import org.apache.commons.compress.utils.IOUtils;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.LocatedFileStatus;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.fs.RemoteIterator;
import org.junit.Before;
import org.junit.Test;
public class Utils {
FileSystem fs=null;
@Before
public void init() throws Exception{
Configuration conf = new Configuration();
conf.set("fs.defaultFS", "hdfs://zhaole:9000");
fs=FileSystem.get(new URI("hdfs://zhaole:9000"), conf, "root");
}
//上传文件
@Test
public void upload() throws Exception{
//设置输入流
FileInputStream input=new FileInputStream("f:/test.txt");
//设置输入流
FSDataOutputStream output = fs.create(new Path("hdfs://zhaole:9000/wc/aaa/bbb/test.txt"));
IOUtils.copy(input, output);
}
//下载文件
@Test
public void download() throws Exception{
//设置输入流
FSDataInputStream input = fs.open(new Path("hdfs://zhaole:9000/wc/test.txt"));
//设置输出流
FileOutputStream output=new FileOutputStream("e:/test.txt");
IOUtils.copy(input, output);
}
//创建文件
@Test
public void mkdir() throws Exception{
fs.mkdirs(new Path("/aaa/bbb/ccc"));
}
//查看文件
@Test
public void cat() throws Exception{
RemoteIterator<LocatedFileStatus> listFiles = fs.listFiles(new Path("/"), true);
while(listFiles.hasNext()){
LocatedFileStatus file = listFiles.next();
Path path = file.getPath();
String name = path.getName();
System.out.println(name);
}
}
//删除文件
@Test
public void del() throws Exception{
fs.delete(new Path("/aaa"),true);
}
}
5.HADOOP的RPC机制(***必须掌握***)
1、登录接口 package com.zl.rpc;public interface IloginService {
public static final long versionID=1L;
String login(String name);
}
2、登录实现类
package com.zl.rpc;
public class LoginServiceImpl implements IloginService{
@Override
public String login(String name) {
// TODO Auto-generated method stub
String result=name+"----登录成功";
return result;
}
}
3、服务发布启动类
package com.zl.rpc;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.ipc.RPC;
import org.apache.hadoop.ipc.RPC.Builder;
import org.apache.hadoop.ipc.RPC.Server;
public class start {
public static void main(String[] args) throws Exception {
Builder builder = new RPC.Builder(new Configuration());
builder.setBindAddress("192.168.0.251").setPort(10000).setProtocol(IloginService.class).setInstance(new LoginServiceImpl());
Server build = builder.build();
build.start();
}
}
4、请求服务
package com.zl.utils;
import java.net.InetSocketAddress;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.ipc.RPC;
import com.zl.rpc.IloginService;
public class LoginController {
public static void main(String[] args) throws Exception {
IloginService proxy = RPC.getProxy(IloginService.class, 1L, new InetSocketAddress("192.168.0.251", 10000), new Configuration());
String login = proxy.login("张三");
System.out.println(login);
}
}