HBase编程 API入门系列之delete.deleteColumn和delete.deleteColumns区别(客户端而言)(4)

简介:

心得,写在前面的话,也许,中间会要多次执行,连接超时,多试试就好了。

  delete.deleteColumn和delete.deleteColumns区别是:

    deleteColumn是删除某一个列簇里的最新时间戳版本。

    delete.deleteColumns是删除某个列簇里的所有时间戳版本。

 

 

 

 

hbase(main):020:0> desc 'test_table'
Table test_table is ENABLED 
test_table 
COLUMN FAMILIES DESCRIPTION 
{NAME => 'f', DATA_BLOCK_ENCODING => 'NONE', BLOOMFILTER => 'ROW', REPLICATION_SCOPE => '0', VERSIONS => '1', COMPRESSION => 'NONE', MIN_VERSIONS => '0', TTL => 'FOREVER', KEEP_DELETED_CELLS 
=> 'FALSE', BLOCKSIZE => '65536', IN_MEMORY => 'false', BLOCKCACHE => 'true'} 
1 row(s) in 0.2190 seconds

hbase(main):021:0> scan 'test_table'
ROW COLUMN+CELL 
row_01 column=f:col, timestamp=1478102698687, value=maizi 
row_01 column=f:name, timestamp=1478104345828, value=Andy 
row_02 column=f:name, timestamp=1478104477628, value=Andy2 
row_03 column=f:name, timestamp=1478104823358, value=Andy3 
3 row(s) in 0.2270 seconds

hbase(main):022:0> scan 'test_table'
ROW COLUMN+CELL 
row_01 column=f:col, timestamp=1478102698687, value=maizi 
row_01 column=f:name, timestamp=1478104345828, value=Andy 
row_02 column=f:name, timestamp=1478104477628, value=Andy2 
row_03 column=f:name, timestamp=1478104823358, value=Andy3 
3 row(s) in 0.1480 seconds

hbase(main):023:0> scan 'test_table',{VERSIONS=>3}
ROW COLUMN+CELL 
row_01 column=f:col, timestamp=1478102698687, value=maizi 
row_01 column=f:name, timestamp=1478104345828, value=Andy 
row_02 column=f:name, timestamp=1478104477628, value=Andy2 
row_03 column=f:name, timestamp=1478104823358, value=Andy3 
3 row(s) in 0.1670 seconds

hbase(main):024:0>

 

 

 

 

 

 

 

 

复制代码
 1 package zhouls.bigdata.HbaseProject.Test1;
 2 
 3 import javax.xml.transform.Result;
 4 
 5 import org.apache.hadoop.conf.Configuration;
 6 import org.apache.hadoop.hbase.HBaseConfiguration;
 7 import org.apache.hadoop.hbase.TableName;
 8 import org.apache.hadoop.hbase.client.Delete;
 9 import org.apache.hadoop.hbase.client.Get;
10 import org.apache.hadoop.hbase.client.HTable;
11 import org.apache.hadoop.hbase.client.Put;
12 import org.apache.hadoop.hbase.util.Bytes;
13 
14 public class HBaseTest {
15     public static void main(String[] args) throws Exception {
16         HTable table = new HTable(getConfig(),TableName.valueOf("test_table"));//表名是test_table
17         Put put = new Put(Bytes.toBytes("row_04"));//行键是row_04
18         put.add(Bytes.toBytes("f"),Bytes.toBytes("name"),Bytes.toBytes("Andy0"));//列簇是f,列修饰符是name,值是Andy0
19 //        put.add(Bytes.toBytes("f2"),Bytes.toBytes("name"),Bytes.toBytes("Andy3"));//列簇是f2,列修饰符是name,值是Andy3
20         table.put(put);
21         table.close();
22 
23 //        Get get = new Get(Bytes.toBytes("row_04"));
24 //        get.addColumn(Bytes.toBytes("f1"), Bytes.toBytes("age"));如现在这样,不指定,默认把所有的全拿出来
25 //        org.apache.hadoop.hbase.client.Result rest = table.get(get);
26 //        System.out.println(rest.toString());
27 //        table.close();
28 
29 //        Delete delete = new Delete(Bytes.toBytes("row_2"));
30 //        delete.deleteColumn(Bytes.toBytes("f1"), Bytes.toBytes("email"));
31 //        delete.deleteColumn(Bytes.toBytes("f1"), Bytes.toBytes("name"));
32 //        table.delete(delete);
33 //        table.close();
34 
35 
36 //        Delete delete = new Delete(Bytes.toBytes("row_03"));
37 //        delete.deleteColumn(Bytes.toBytes("f"), Bytes.toBytes("name"));
38 //        delete.deleteColumns(Bytes.toBytes("f"), Bytes.toBytes("name"));
39 //        table.delete(delete);
40 //        table.close();
41 }
42 
43     public static Configuration getConfig(){
44         Configuration configuration = new Configuration(); 
45 //        conf.set("hbase.rootdir","hdfs:HadoopMaster:9000/hbase");
46         configuration.set("hbase.zookeeper.quorum", "HadoopMaster:2181,HadoopSlave1:2181,HadoopSlave2:2181");
47         return configuration;
48     }
49 }
复制代码

 

 

 

 

 

 

 

 

 

 

hbase(main):038:0> scan 'test_table'
ROW COLUMN+CELL 
row_01 column=f:col, timestamp=1478102698687, value=maizi 
row_01 column=f:name, timestamp=1478104345828, value=Andy 
row_02 column=f:name, timestamp=1478104477628, value=Andy2 
row_03 column=f:name, timestamp=1478123664884, value=Andy3 
3 row(s) in 0.1910 seconds

hbase(main):039:0> scan 'test_table'
ROW COLUMN+CELL 
row_01 column=f:col, timestamp=1478102698687, value=maizi 
row_01 column=f:name, timestamp=1478104345828, value=Andy 
row_02 column=f:name, timestamp=1478104477628, value=Andy2 
row_03 column=f:name, timestamp=1478123664884, value=Andy3 
row_04 column=f:name, timestamp=1478123917775, value=Andy0 
4 row(s) in 0.1310 seconds

 

 

 

 

 

 

 

 

 

 

 

delete.deleteColumn和delete.deleteColumns区别是:

    deleteColumn是删除某一个列簇里的最新时间戳版本。

    delete.deleteColumns是删除某个列簇里的所有时间戳版本。

 

复制代码
 1 package zhouls.bigdata.HbaseProject.Test1;
 2 
 3 import javax.xml.transform.Result;
 4 
 5 import org.apache.hadoop.conf.Configuration;
 6 import org.apache.hadoop.hbase.HBaseConfiguration;
 7 import org.apache.hadoop.hbase.TableName;
 8 import org.apache.hadoop.hbase.client.Delete;
 9 import org.apache.hadoop.hbase.client.Get;
10 import org.apache.hadoop.hbase.client.HTable;
11 import org.apache.hadoop.hbase.client.Put;
12 import org.apache.hadoop.hbase.util.Bytes;
13 
14 public class HBaseTest {
15     public static void main(String[] args) throws Exception {
16         HTable table = new HTable(getConfig(),TableName.valueOf("test_table"));//表名是test_table
17         Put put = new Put(Bytes.toBytes("row_04"));//行键是row_04
18         put.add(Bytes.toBytes("f"),Bytes.toBytes("name"),Bytes.toBytes("Andy1"));//列簇是f,列修饰符是name,值是Andy0
19 //        put.add(Bytes.toBytes("f2"),Bytes.toBytes("name"),Bytes.toBytes("Andy3"));//列簇是f2,列修饰符是name,值是Andy3
20         table.put(put);
21         table.close();
22 
23 //        Get get = new Get(Bytes.toBytes("row_04"));
24 //        get.addColumn(Bytes.toBytes("f1"), Bytes.toBytes("age"));如现在这样,不指定,默认把所有的全拿出来
25 //        org.apache.hadoop.hbase.client.Result rest = table.get(get);
26 //        System.out.println(rest.toString());
27 //        table.close();
28 
29 //        Delete delete = new Delete(Bytes.toBytes("row_2"));
30 //        delete.deleteColumn(Bytes.toBytes("f1"), Bytes.toBytes("email"));
31 //        delete.deleteColumn(Bytes.toBytes("f1"), Bytes.toBytes("name"));
32 //        table.delete(delete);
33 //        table.close();
34 
35 
36 //        Delete delete = new Delete(Bytes.toBytes("row_03"));
37 //        delete.deleteColumn(Bytes.toBytes("f"), Bytes.toBytes("name"));
38 //        delete.deleteColumns(Bytes.toBytes("f"), Bytes.toBytes("name"));
39 //        table.delete(delete);
40 //        table.close();
41 }
42 
43     public static Configuration getConfig(){
44         Configuration configuration = new Configuration(); 
45 //        conf.set("hbase.rootdir","hdfs:HadoopMaster:9000/hbase");
46         configuration.set("hbase.zookeeper.quorum", "HadoopMaster:2181,HadoopSlave1:2181,HadoopSlave2:2181");
47         return configuration;
48     }
49 }
复制代码

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

   

 

 

 

 

 

 

 

delete.deleteColumn和delete.deleteColumns区别是:

    deleteColumn是删除某一个列簇里的最新时间戳版本。

    delete.deleteColumns是删除某个列簇里的所有时间戳版本。

 


本文转自大数据躺过的坑博客园博客,原文链接:http://www.cnblogs.com/zlslch/p/6156265.html,如需转载请自行联系原作者

相关实践学习
云数据库HBase版使用教程
  相关的阿里云产品:云数据库 HBase 版 面向大数据领域的一站式NoSQL服务,100%兼容开源HBase并深度扩展,支持海量数据下的实时存储、高并发吞吐、轻SQL分析、全文检索、时序时空查询等能力,是风控、推荐、广告、物联网、车联网、Feeds流、数据大屏等场景首选数据库,是为淘宝、支付宝、菜鸟等众多阿里核心业务提供关键支撑的数据库。 了解产品详情: https://cn.aliyun.com/product/hbase   ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库 ECS 实例和一台目标数据库 RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
相关文章
|
19天前
|
Java API
掌握Java 8 Stream API的艺术:详解流式编程(三)
掌握Java 8 Stream API的艺术:详解流式编程
14 2
|
2天前
|
数据采集 DataWorks 安全
DataWorks产品使用合集之在DataWorks数据服务中,生成API和注册API的主要区别如何解决
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
16 2
|
6天前
|
JavaScript API
Options API:和compositionAPI分别是什么,有什么区别哇
Options API:和compositionAPI分别是什么,有什么区别哇
|
6天前
|
存储 SQL Java
Java8 Stream API 详解:流式编程进行数据处理
Java8 Stream API 详解:流式编程进行数据处理
|
19天前
|
存储 Java BI
掌握Java 8 Stream API的艺术:详解流式编程(二)
掌握Java 8 Stream API的艺术:详解流式编程
26 1
|
19天前
|
存储 Java 关系型数据库
掌握Java 8 Stream API的艺术:详解流式编程(一)
掌握Java 8 Stream API的艺术:详解流式编程
49 1
|
缓存 API
|
2天前
|
存储 缓存 运维
DataWorks操作报错合集之DataWorks根据api,调用查询文件列表接口报错如何解决
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
9 1
|
2天前
|
SQL 数据管理 API
数据管理DMS产品使用合集之阿里云DMS提供API接口来进行数据导出功能吗
阿里云数据管理DMS提供了全面的数据管理、数据库运维、数据安全、数据迁移与同步等功能,助力企业高效、安全地进行数据库管理和运维工作。以下是DMS产品使用合集的详细介绍。
|
2天前
|
运维 Serverless API
Serverless 应用引擎产品使用之在阿里函数计算中开启函数计算 API 接口如何解决
阿里云Serverless 应用引擎(SAE)提供了完整的微服务应用生命周期管理能力,包括应用部署、服务治理、开发运维、资源管理等功能,并通过扩展功能支持多环境管理、API Gateway、事件驱动等高级应用场景,帮助企业快速构建、部署、运维和扩展微服务架构,实现Serverless化的应用部署与运维模式。以下是对SAE产品使用合集的概述,包括应用管理、服务治理、开发运维、资源管理等方面。
102 6