Hadoop学习(2)-java客户端操作hdfs及secondarynode作用

简介: Hadoop学习(2)-java客户端操作hdfs及secondarynode作用首先要在windows下解压一个windows版本的hadoop然后在配置他的环境变量,同时要把hadoop的share目录下的hadoop下的相关jar包拷贝到esclipe然后Build Path下面上代码复制代码import java.

Hadoop学习(2)-java客户端操作hdfs及secondarynode作用
首先要在windows下解压一个windows版本的hadoop

然后在配置他的环境变量,同时要把hadoop的share目录下的hadoop下的相关jar包拷贝到esclipe

然后Build Path

下面上代码

复制代码
import java.io.BufferedReader;
import java.io.FileInputStream;
import java.io.IOException;
import java.io.InputStreamReader;
import java.net.URI;
import java.net.URISyntaxException;
import java.util.Arrays;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.LocatedFileStatus;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.fs.RemoteIterator;
import org.junit.Before;
import org.junit.Test;

public class HdfsClientDemo {



public static void main(String[] args) throws Exception {
    /**
     * Configuration参数对象的机制:
     *    构造时,会加载jar包中的默认配置 xx-default.xml
     *    再加载 用户配置xx-site.xml  ,覆盖掉默认参数
     *    构造完成之后,还可以conf.set("p","v"),会再次覆盖用户配置文件中的参数值
     */
    // new Configuration()会从项目的classpath中加载core-default.xml hdfs-default.xml core-site.xml hdfs-site.xml等文件
    Configuration conf = new Configuration();
    
    // 指定本客户端上传文件到hdfs时需要保存的副本数为:2
    conf.set("dfs.replication", "2");
    // 指定本客户端上传文件到hdfs时切块的规格大小:64M
    conf.set("dfs.blocksize", "64m");
    
    // 构造一个访问指定HDFS系统的客户端对象: 参数1:——HDFS系统的URI,参数2:——客户端要特别指定的参数,参数3:客户端的身份(用户名)
    FileSystem fs = FileSystem.get(new URI("hdfs://172.31.2.38:9000/"), conf, "root");
    
    // 上传一个文件到HDFS中
    fs.copyFromLocalFile(new Path("D:/install-pkgs/hbase-1.2.1-bin.tar.gz"), new Path("/aaa/"));
    
    fs.close();
}

FileSystem fs = null;

@Before
public void init() throws Exception{
    Configuration conf = new Configuration();
    conf.set("dfs.replication", "2");
    conf.set("dfs.blocksize", "64m");
    
    fs = FileSystem.get(new URI("hdfs://172.31.2.38:9000/"), conf, "root");
    
}


/**
 * 从HDFS中下载文件到客户端本地磁盘
 * @throws IOException 
 * @throws IllegalArgumentException 
 */
@Test
public void testGet() throws IllegalArgumentException, IOException{
    
    fs.copyToLocalFile(new Path("/test"), new Path("d:/"));
    fs.close();
    
}


/**
 * 在hdfs内部移动文件\修改名称
 */
@Test
public void testRename() throws Exception{
    
    fs.rename(new Path("/install.log"), new Path("/aaa/in.log"));
    
    fs.close();
    
}

/**
 * 在hdfs中创建文件夹
 */
@Test
public void testMkdir() throws Exception{
    
    fs.mkdirs(new Path("/xx/yy/zz"));
    
    fs.close();
}


/**
 * 在hdfs中删除文件或文件夹
 */
@Test
public void testRm() throws Exception{
    
    fs.delete(new Path("/aaa"), true);
    
    fs.close();
}



/**
 * 查询hdfs指定目录下的文件信息
 */
@Test
public void testLs() throws Exception{
    // 只查询文件的信息,不返回文件夹的信息
    RemoteIterator<LocatedFileStatus> iter = fs.listFiles(new Path("/"), true);
    
    while(iter.hasNext()){
        LocatedFileStatus status = iter.next();
        System.out.println("文件全路径:"+status.getPath());
        System.out.println("块大小:"+status.getBlockSize());
        System.out.println("文件长度:"+status.getLen());
        System.out.println("副本数量:"+status.getReplication());
        System.out.println("块信息:"+Arrays.toString(status.getBlockLocations()));
        
        System.out.println("--------------------------------");
    }
    fs.close();
}
/**
 * 读取hdfs中的文件的内容
 * 
 * @throws IOException
 * @throws IllegalArgumentException
 */
@Test
public void testReadData() throws IllegalArgumentException, IOException {

    FSDataInputStream in = fs.open(new Path("/test.txt"));

    BufferedReader br = new BufferedReader(new InputStreamReader(in, "utf-8"));

    String line = null;
    while ((line = br.readLine()) != null) {
        System.out.println(line);
    }

    br.close();
    in.close();
    fs.close();

}

/**
 * 读取hdfs中文件的指定偏移量范围的内容
 * 
 * 
 * 
 * @throws IOException
 * @throws IllegalArgumentException
 */
@Test
public void testRandomReadData() throws IllegalArgumentException, IOException {

    FSDataInputStream in = fs.open(new Path("/xx.dat"));

    // 将读取的起始位置进行指定
    in.seek(12);

    // 读16个字节
    byte[] buf = new byte[16];
    in.read(buf);

    System.out.println(new String(buf));

    in.close();
    fs.close();

}

/**
 * 往hdfs中的文件写内容
 * 
 * @throws IOException
 * @throws IllegalArgumentException
 */

@Test
public void testWriteData() throws IllegalArgumentException, IOException {

    FSDataOutputStream out = fs.create(new Path("/zz.jpg"), false);

    // D:\images\006l0mbogy1fhehjb6ikoj30ku0ku76b.jpg

    FileInputStream in = new FileInputStream("D:/images/006l0mbogy1fhehjb6ikoj30ku0ku76b.jpg");

    byte[] buf = new byte[1024];
    int read = 0;
    while ((read = in.read(buf)) != -1) {
        out.write(buf,0,read);
    }
    
    in.close();
    out.close();
    fs.close();

}

}
复制代码

练习:从一个文件里面不断地采集日志上传到hdfs里面

1.流程介绍

---启动一个定时任务

    --定时探测日志原目录

    --获取文件上传到一个待上传的临时目录

    --逐一上传到hdfs目标路径,同时移动到备份目录里

--启动一个定时任务:

    --探测备份目录中的备份数据是否已经超出,如果超出就删除

主类为:

复制代码
import java.util.Timer;

public class DataCollectMain {


public static void main(String[] args) {
    
    Timer timer = new Timer();
    //第一个为task类,第二个开始时间 第三个没隔多久执行一次
    timer.schedule(new CollectTask(), 0, 60*60*1000L);
    
    timer.schedule(new BackupCleanTask(), 0, 60*60*1000L);
    
}

}
复制代码
CollectTask类:

这个类要继承TimerTask,重写run方法,主要内容就是不断收集日志文件

复制代码
package cn.edu360.hdfs.datacollect;

import java.io.File;
import java.io.FilenameFilter;
import java.net.URI;
import java.text.SimpleDateFormat;
import java.util.Arrays;
import java.util.Date;
import java.util.Properties;
import java.util.TimerTask;
import java.util.UUID;

import org.apache.commons.io.FileUtils;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.log4j.Logger;

public class CollectTask extends TimerTask {

@Override
public void run() {
    try {
        // 获取配置参数
        Properties props = PropertyHolderLazy.getProps();

        // 获取本次采集时的日期
        SimpleDateFormat sdf = new SimpleDateFormat("yyyy-MM-dd-HH");
        String day = sdf.format(new Date());
        
        File srcDir = new File("d:/logs/accesslog");
        // 列出日志源目录中需要采集的文件
        //里面传了一个文件过滤器,重写accept方法,return true就要
        File[] listFiles = srcDir.listFiles(new FilenameFilter() {
            @Override
            public boolean accept(File dir, String name) {
                if (name.startsWith("access.log")) {
                    return true;
                }
                return false;
            }
        });
        // 将要采集的文件移动到待上传临时目录
        File toUploadDir = new File("d:/logs/toupload");
        for (File file : listFiles) {
            
            //这里如果是 file.renameTo(toUploadDir)是不对的,因为会生成一个toupload的文件而不是文件夹
            //要用renameTo的话你要自己加上文件的新名字比较麻烦
            //用FileUtiles是对file操作的一些工具类
            //第一个目标文件,第二个路径,第三个是否存在覆盖
            FileUtils.moveFileToDirectory(file, toUploadDir, true);
        }

        // 构造一个HDFS的客户端对象
        FileSystem fs = FileSystem.get(new URI("hdfs://hdp-01:9000"), new Configuration(), "root");
        
        File[] toUploadFiles = toUploadDir.listFiles();

        // 检查HDFS中的日期目录是否存在,如果不存在,则创建
        Path hdfsDestPath = new Path("/logs" + day);
        if (!fs.exists(hdfsDestPath)) {
            fs.mkdirs(hdfsDestPath);
        }

        // 检查本地的备份目录是否存在,如果不存在,则创建
        File backupDir = new File("d:/logs/backup" + day + "/");
        if (!backupDir.exists()) {
            backupDir.mkdirs();
        }

        for (File file : toUploadFiles) {
            // 传输文件到HDFS并改名access_log_
            fs.copyFromLocalFile(new Path(file.getAbsolutePath()), new Path("/logs"+day+"/access_log_"+UUID.randomUUID()+".log"));

            // 将传输完成的文件移动到备份目录
            //注意这里依然不要用renameTo
            FileUtils.moveFileToDirectory(file, backupDir, true);
        }

    } catch (Exception e) {
        e.printStackTrace();
    }

}

复制代码
/**

 * 读取hdfs中的文件的内容
 * 
 * @throws IOException
 * @throws IllegalArgumentException
 */
@Test
public void testReadData() throws IllegalArgumentException, IOException {

    FSDataInputStream in = fs.open(new Path("/test.txt"));

    BufferedReader br = new BufferedReader(new InputStreamReader(in, "utf-8"));

    String line = null;
    while ((line = br.readLine()) != null) {
        System.out.println(line);
    }

    br.close();
    in.close();
    fs.close();

}

/**
 * 读取hdfs中文件的指定偏移量范围的内容
 * 
 * 
 * 作业题:用本例中的知识,实现读取一个文本文件中的指定BLOCK块中的所有数据
 * 
 * @throws IOException
 * @throws IllegalArgumentException
 */
@Test
public void testRandomReadData() throws IllegalArgumentException, IOException {

    FSDataInputStream in = fs.open(new Path("/xx.dat"));

    // 将读取的起始位置进行指定
    in.seek(12);

    // 读16个字节
    byte[] buf = new byte[16];
    in.read(buf);

    System.out.println(new String(buf));

    in.close();
    fs.close();

}

/**
 * 往hdfs中的文件写内容
 * 
 * @throws IOException
 * @throws IllegalArgumentException
 */

@Test
public void testWriteData() throws IllegalArgumentException, IOException {

    FSDataOutputStream out = fs.create(new Path("/zz.jpg"), false);

    // D:\images\006l0mbogy1fhehjb6ikoj30ku0ku76b.jpg

    FileInputStream in = new FileInputStream("D:/images/006l0mbogy1fhehjb6ikoj30ku0ku76b.jpg");

    byte[] buf = new byte[1024];
    int read = 0;
    while ((read = in.read(buf)) != -1) {
        out.write(buf,0,read);
    }
    
    in.close();
    out.close();
    fs.close();

}

复制代码

}
复制代码
BackupCleanTask类

复制代码
package cn.edu360.hdfs.datacollect;

import java.io.File;
import java.text.SimpleDateFormat;
import java.util.Date;
import java.util.TimerTask;

import org.apache.commons.io.FileUtils;

public class BackupCleanTask extends TimerTask {

@Override
public void run() {

    SimpleDateFormat sdf = new SimpleDateFormat("yyyy-MM-dd-HH");
    long now = new Date().getTime();
    try {
        // 探测本地备份目录
        File backupBaseDir = new File("d:/logs/backup/");
        File[] dayBackDir = backupBaseDir.listFiles();

        // 判断备份日期子目录是否已超24小时
        for (File dir : dayBackDir) {
            long time = sdf.parse(dir.getName()).getTime();
            if(now-time>24*60*60*1000L){
                FileUtils.deleteDirectory(dir);
            }
        }
    } catch (Exception e) {
        e.printStackTrace();
    }

}

}
复制代码

hdfs中namenode中储存元数据(对数据的描述信息)是在内存中以树的形式储存的,并且每隔一段时间都会把这些元数据序列化到磁盘中。序列化的东西在磁盘中叫 fsimage文件。

元数据可能会很大很大,所以只能是定期的序列化

问题1:序列化的时候,发生了元数据的修改怎么办

答:namenode会把每次用户的操作都记录下来,记录成日志文件,存在edits日志文件中

其中edits日志文件也会像log4j滚动日志文件一样,当文件太大的时候会另起一个文件并改名字

问题2:当edits文件太多的时候,一次宕机也会花大量的时间从edits里恢复,怎么办

答:会定期吧edits文件重放fsimage文件,并记录edits的编号,把那些重放过的日志文件给删除。这样也相当于重新序列化了,

所以namenode并不会做这样的事情,是由secondary node做的,他会定期吧namenode的fsimage文件和edits文件下载下来

并把fsimage文件反序列化,并且读日志文件更新元数据,然后序列化到磁盘,然后把他上传给namenode。

这个机制叫做checkpoint机制

这里secondarynode 相当一一个小秘书

客户端写数据到hdfs的流程

上面是建立响应的过程

然后 是传递文件block块的过程

客户端从hdfs读数据流程

额外知识点

注意,在windows里面不要写有些路径不要写绝对路径,因为程序放到linux下面可能会找不到,因此报错

一般使用class加载器,这样当这个class加载的时候就会知道这个class在哪

类加载器的一些使用例子

比如我加载一个配置文件,为了避免出现绝对路径,我们可以是用类加载器

     Properties props = new Properties();

    //加载配置文件,这样写的目的是为了避免在windows里出现绝对路径,用类加载器,再把文件传化成流
    props.load(HdfsWordcount.class.getClassLoader().getResourceAsStream("job.properties"));

而对于一些功能性的类,我们最好在写逻辑的时候也不要直接去导入这个包,而是使用Class.forName

//这样不直接导入这个包,直接用类加载器,是面向接口编程的一种思想。这里我并不是在开始import xxxx.Mapper,这里Mapper是一个接口,这里我用了多态

    Class<?> mapper_class = Class.forName(props.getProperty("MAPPER_CLASS"));
    Mapper mapper = (Mapper) mapper_class.newInstance();

单例模式

https://www.cnblogs.com/crazy-wang-android/p/9054771.html

只有个一实例,必须自己创建自己这个实例,必须为别人提供这个实例

饿汉式单例:就算没有人调用这个class,他也会加载进去;

如对于一个配置文件的加载

复制代码
import java.util.Properties;

/**

  • 单例设计模式,方式一: 饿汉式单例
    *

*/
public class PropertyHolderHungery {

private static Properties prop = new Properties();

static {
    try {
        //将一个文件prop.load(stram)  
        //这里面如果传一个IO流不好,因为要用到绝对路径,使用了类加载器  这种不管有没有使用这个类都会加载
        prop.load(PropertyHolderHungery.class.getClassLoader().getResourceAsStream("collect.properties"));
    } catch (Exception e) {

    }
}
public static Properties getProps() throws Exception {
    return prop;
}

}
复制代码
懒汉式:只有调用的时候才会有,但会有线程安全问题

复制代码
/**

  • 单例模式:懒汉式——考虑了线程安全
  • */

public class PropertyHolderLazy {

private static Properties prop = null;

public static Properties getProps() throws Exception {
    if (prop == null) {
        synchronized (PropertyHolderLazy.class) {
            if (prop == null) {
                prop = new Properties();
                prop.load(PropertyHolderLazy.class.getClassLoader().getResourceAsStream("collect.properties"));
            }
        }
    }
    return prop;
}

}
复制代码
原文地址https://www.cnblogs.com/wpbing/archive/2019/07/23/11233399.html

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
相关文章
|
10天前
|
消息中间件 前端开发 Java
java学习路径
【4月更文挑战第9天】java学习路径
17 1
|
10天前
|
设计模式 前端开发 安全
Java是一种广泛使用的编程语言,其学习路径可以大致分为以下几个阶段
【4月更文挑战第9天】Java是一种广泛使用的编程语言,其学习路径可以大致分为以下几个阶段
15 1
|
1天前
|
JavaScript Java 测试技术
基于Java的精品课程在线学习系统的设计与实现(源码+lw+部署文档+讲解等)
基于Java的精品课程在线学习系统的设计与实现(源码+lw+部署文档+讲解等)
15 1
|
1天前
|
JavaScript Java 测试技术
基于Java的中文学习系统的设计与实现(源码+lw+部署文档+讲解等)
基于Java的中文学习系统的设计与实现(源码+lw+部署文档+讲解等)
14 0
|
5天前
|
分布式计算 Hadoop 测试技术
Hadoop【基础知识 05】【HDFS的JavaAPI】(集成及测试)
【4月更文挑战第5天】Hadoop【基础知识 05】【HDFS的JavaAPI】(集成及测试)
28 8
|
5天前
|
分布式计算 资源调度 Hadoop
Hadoop【基础知识 03+04】【Hadoop集群资源管理器yarn】(图片来源于网络)(hadoop fs + hadoop dfs + hdfs dfs 使用举例)
【4月更文挑战第5天】Hadoop【基础知识 03】【Hadoop集群资源管理器yarn】(图片来源于网络)Hadoop【基础知识 04】【HDFS常用shell命令】(hadoop fs + hadoop dfs + hdfs dfs 使用举例)
31 9
|
6天前
|
分布式计算 Hadoop Shell
Hadoop【基础知识 04】【HDFS常用shell命令】(hadoop fs + hadoop dfs + hdfs dfs 使用举例)
【4月更文挑战第4天】Hadoop【基础知识 04】【HDFS常用shell命令】(hadoop fs + hadoop dfs + hdfs dfs 使用举例)
18 5
|
7天前
|
Java 存储
键值之道:深入学习Java中强大的HashMap(二)
键值之道:深入学习Java中强大的HashMap
10 0
键值之道:深入学习Java中强大的HashMap(二)
|
9天前
|
存储 分布式计算 Hadoop
【Hadoop】HDFS 读写流程
【4月更文挑战第9天】【Hadoop】HDFS 读写流程
|
9天前
|
JavaScript Java 测试技术
基于Java的网络类课程思政学习系统的设计与实现(源码+lw+部署文档+讲解等)
基于Java的网络类课程思政学习系统的设计与实现(源码+lw+部署文档+讲解等)
25 0
基于Java的网络类课程思政学习系统的设计与实现(源码+lw+部署文档+讲解等)