澳门新葡8455手机版-澳门新葡8455最新网站

您的位置:澳门新葡8455手机版 > 产品测评 > 第二种用keyset的方法,HDFS提供了两种类型的容器

第二种用keyset的方法,HDFS提供了两种类型的容器

2019-10-05 10:20

二种格局的合计都以遍历三个map的Key,然后2个Map分别取那2个Key值所获得的Value。

Hadoop的HDFS和MapReduce子框架主假诺针对性大数据文件来布署的,在小文件的处理上不止功能低下,而且特别消耗内部存款和储蓄器财富(每贰个小文件占用二个Block,每二个block的元数据都存款和储蓄在namenode的内部存款和储蓄器里)。化解办法平常是挑选多少个器皿,将那些小文件协会起来统一存储。HDFS提供了两连串型的器皿,分别是SequenceFile和MapFile。

 

一、SequenceFile

SequenceFile的蕴藏类似于Log文件,所差异的是Log File的每条记下的是纯文本数据,而SequenceFile的每条记下是可系列化的字符数组。

SequenceFile可经过如下API来实现新记录的丰裕操作:

        fileWriter.append(key,value)

能够见到,每条记下以键值对的不二法门开展集体,但前提是Key和Value需具有连串化和反体系化的作用

Hadoop预订义了一些Key Class和Value Class,他们一直或直接完毕了Writable接口,满意了该意义,满含:

Text                                等同于Java中的String
IntWritable                   等同于Java中的Int
BooleanWritable        等同于Java中的Boolean
        .
        .

在存储结构上,SequenceFile首要由叁个Header后跟多条Record组成,如图所示:

澳门新葡8455手机版 1

Header主要包涵了Key classname,Value classname,存款和储蓄压缩算法,顾客自定义元数据等音信,另外,还蕴藏了部分联袂标志,用于迅速牢固到记录的边界。

每条Record以键值对的艺术开展仓库储存,用来代表它的字符数组可依次分析成:记录的长度、Key的长度、Key值和Value值,何况Value值的构造决计于该记录是不是被压缩。

数据压缩有助于节省磁盘空间和增长速度互连网传输,SeqeunceFile协理三种格式的数据压缩,分别是:record compression和block compression。

record compression如上海教室所示,是对每条记下的value举办压缩

block compression是将一种类的record协会到手拉手,统一压缩成四个block,如图所示:

澳门新葡8455手机版 2

block消息首要囤积了:块所含有的记录数、每条记下Key长度的联谊、每条记下Key值的聚众、每条记下Value长度的聚众和每条记下Value值的成团

澳门新葡8455手机版,注:每一个block的分寸是可通过io.seqfile.compress.blocksize属性来钦点的

示例:SequenceFile读/写 操作

[java] view plaincopy

  1. Configuration conf=new Configuration();  
  2. FileSystem fs=FileSystem.get(conf);  
  3. Path seqFile=new Path("seqFile.seq");  
  4. //Reader内部类用于文书的读取操作  
  5. SequenceFile.Reader reader=new SequenceFile.Reader(fs,seqFile,conf);  
  6. //Writer内部类用于文书的写操作,假使Key和Value都为Text类型  
  7. SequenceFile.Writer writer=new SequenceFile.Writer(fs,conf,seqFile,Text.class,Text.class);  
  8. //通过writer向文书档案中写入记录  
  9. writer.append(new Text("key"),new Text("value"));  
  10. IOUtils.closeStream(writer);//关闭write流  
  11. //通过reader从文书档案中读取记录  
  12. Text key=new Text();  
  13. Text value=new Text();  
  14. while(reader.next(key,value)){  
  15.     System.out.println(key);  
  16.     System.out.println(value);  
  17. }  
  18. IOUtils.closeStream(reader);//关闭read流  

 

#其次种用keyset的主意,把key值存到容器,分别抽取相比较

二、MapFile

MapFile是排序后的SequenceFile,通过观望其目录结构能够看来MapFile由两片段构成,分别是data和index。

index作为文件的数额索引,首要记录了各类Record的key值,以及该Record在文件中的偏移地点。在MapFile被访谈的时候,索引文件会被加载到内部存款和储蓄器,通过索引映射关系可连忙定位到钦命Record所在文书地点,因而,相对SequenceFile来说,MapFile的搜索功效是便捷的,短处是会成本一部分内部存储器来存款和储蓄index数据。

需注意的是,MapFile并不会把具备Record都记录到index中去,暗许情形下每隔128条记下存款和储蓄叁个索引映射。当然,记录间隔可人为修改,通过MapFIle.Writer的setIndexInterval()方法,或退换io.map.index.interval属性;

除此以外,与SequenceFile分裂的是,MapFile的KeyClass必供给兑现WritableComparable接口,即Key值是可正如的。

演示:MapFile读写操作

[java] view plaincopy

  1. Configuration conf=new Configuration();  
  2. FileSystem fs=FileSystem.get(conf);  
  3. Path mapFile=new Path("mapFile.map");  
  4. //Reader内部类用于文书的读取操作  
  5. MapFile.Reader reader=new MapFile.Reader(fs,mapFile.toString(),conf);  
  6. //Writer内部类用于文书的写操作,要是Key和Value都为Text类型  
  7. MapFile.Writer writer=new MapFile.Writer(conf,fs,mapFile.toString(),Text.class,Text.class);  
  8. //通过writer向文书档案中写入记录  
  9. writer.append(new Text("key"),new Text("value"));  
  10. IOUtils.closeStream(writer);//关闭write流  
  11. //通过reader从文档中读取记录  
  12. Text key=new Text();  
  13. Text value=new Text();  
  14. while(reader.next(key,value)){  
  15.     System.out.println(key);  
  16.     System.out.println(key);  
  17. }  
  18. IOUtils.closeStream(reader);//关闭read流  

瞩目:使用MapFile或SequenceFile即便能够缓和HDFS中型Mini文件的蕴藏难点,但也许有早晚局限性,如:
1.文本不支持复写操作,不能向已存在的SequenceFile(MapFile)追加存款和储蓄记录
2.当write流不关门的时候,未有艺术构造read流。也正是在进行理文件书写操作的时候,该文件是不行读取的

结果写入文件格局write

##其次种用keyset的办法,遍历Key值

#先是种用entry

private void compareMap(Map<String, String> Map01, Map<String, String Map02>){  

     Iterator<String> iter = Map1.keySet().iterator();

while (iter.hasNext()) {

            String testKey = iter.next();

       if(Map1.get(testId).equals(Map2.get(testId))){

                System.out.println("equals");

              }else{

                System.out.println("not equals");

            }
   public static void write(String file, String valueOfMap1, String valueOfMap2) {

        try {
            BufferedWriter input = new BufferedWriter(new OutputStreamWriter(
                    new FileOutputStream(file, true)));
            input.write("Map1Output: " + valueOfMap1 + "rn");
            input.write("Map2Output: " + valueOfmap2 + "rn");
            input.newLine();
            input.close();
        } catch (IOException e) {
            e.printStackTrace();
        }
    }

在main方法调用并传递参就可以了,

private void compareMap(Map<String, String> Map01, Map<String, String Map02>){

        for (Map.Entry<String, String> entry : Map1.entrySet())
        {

           String testKey = entry.getKey();

           if(Map1.get(testId).equals(Map2.get(testId))){

                System.out.println("equals");

            }else{

                System.out.println("not equals");

            }
        }
}

PS:就算急需将结果(一样的value、差别的value)写入文件,则足以写二个write方法,在历次打字与印刷写入文件,Gavin件地方参数就可以

public class CompareMap {

    public static void main(String[] args) {

    }

    private void compare(Map<String, String> map1, Map<String, String> map2) {

        for (String testkey : map1.keySet()) {

            if(map1.get(testkey).equals(map2.get(testkey))){

                System.out.println("equals");

            }else{

                System.out.println("not equals");

            }
        }

    }

 

本文由澳门新葡8455手机版发布于产品测评,转载请注明出处:第二种用keyset的方法,HDFS提供了两种类型的容器

关键词: