这篇文章主要介绍“HBase2 java Api接口举例分析”,在日常操作中,相信很多人在HBase2 java Api接口举例分析问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”HBase2 java Api接口举例分析”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!
公司主营业务:成都网站制作、网站设计、移动网站开发等业务。帮助企业客户真正实现互联网宣传,提高企业的竞争能力。成都创新互联是一支青春激扬、勤奋敬业、活力青春激扬、勤奋敬业、活力澎湃、和谐高效的团队。公司秉承以“开放、自由、严谨、自律”为核心的企业文化,感谢他们对我们的高要求,感谢他们从不同领域给我们带来的挑战,让我们激情的团队有机会用头脑与智慧不断的给客户带来惊喜。成都创新互联推出固镇免费做网站回馈大家。
CompareOperator.LESS 匹配小宇设定值的值
CompareOperator.LESS_OR_EQUAL 匹配小宇或等于设定值的值
CompareOperator.EQUAL 匹配等于设定值的值
CompareOperator.NOT_EQUAL 匹配与设定值不相等的值
CompareOperator.GREATER_OR_EQUAL 匹配大于或等于设定值的值
CompareOperator.GREATER 匹配大于设定值的值 CompareOperator.NO_OP 排除一切值
RowFilter :基于行键来过滤数据;
FamilyFilterr :基于列族来过滤数据;
QualifierFilterr :基于列限定符(列名)来过滤数据;
ValueFilterr :基于单元格 (cell) 的值来过滤数据;
DependentColumnFilter :指定一个参考列来过滤其他列的过滤器,过滤的原则是基于参考列的时间戳来进行筛选 。
BinaryComparator 使用Bytes.compareTo()比较当前值与阈值
BinaryPrefixComparator 与上面类似,但是是从左端开始前缀匹配
NullComparator 不做匹配,只判断当前值是不是null
BitComparator 通过BitwiseOp类提供的按位与(AND)、或(OR)、异或(XOR)操作执行位级比较 ,只能用EQUAL和NOT_EQUAL
RegexStringComparator 根据一个正则表达式,在实例化这个比较器的时候去匹配表中的数据 ,只能用* EQUAL和NOT_EQUAL
SubStringComparator 把阈值和表中数据当做String实例,同时通过contains()操作匹配字符串,只能用EQUAL和NOT_EQUAL
单列列值过滤器 (SingleColumnValueFilter)
单列列值排除器 (SingleColumnValueExcludeFilter)
行键前缀过滤器 (PrefixFilter)
列名前缀过滤器 (ColumnPrefixFilter)
分页过滤器 (PageFilter)
时间戳过滤器 (TimestampsFilter)
首次行键过滤器 (FirstKeyOnlyFilter)
SkipFilter过滤器,遇到需要过滤keyvalue实例时,拓张过滤整行数据
WhileMatchFilter过滤器 遇到一个需要过滤的 KeyValue 实例时,WhileMatchFilter 则结束本次扫描,返回已经扫描到的结果
FilterList 过滤器类组合,多种类型过滤器组合。
日志接口框架使用slf4j,这里去除commons-logging。
org.apache.hbase hbase-client 2.0.2 commons-logging commons-logging
实现对hbase库数据的增删改查,支持kerberos认证,为避免复杂参数设置,这里直接引入hadoop和hbase配置文件。
import java.io.IOException; import java.util.ArrayList; import java.util.List; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.hbase.Cell; import org.apache.hadoop.hbase.CompareOperator; import org.apache.hadoop.hbase.HBaseConfiguration; import org.apache.hadoop.hbase.TableName; import org.apache.hadoop.hbase.client.Connection; import org.apache.hadoop.hbase.client.ConnectionFactory; import org.apache.hadoop.hbase.client.Get; import org.apache.hadoop.hbase.client.HBaseAdmin; import org.apache.hadoop.hbase.client.Result; import org.apache.hadoop.hbase.client.ResultScanner; import org.apache.hadoop.hbase.client.Scan; import org.apache.hadoop.hbase.client.Table; import org.apache.hadoop.hbase.filter.Filter; import org.apache.hadoop.hbase.filter.RowFilter; import org.apache.hadoop.hbase.filter.SubstringComparator; import org.apache.hadoop.hbase.util.Bytes; import org.apache.hadoop.security.UserGroupInformation; import org.slf4j.Logger; import org.slf4j.LoggerFactory; public final class HbaseUtil { private static Logger log= LoggerFactory.getLogger(HbaseUtil.class); private Connection connection; public HbaseUtil() throws IOException { Configuration conf = HBaseConfiguration.create(); conf.addResource(new Path(ConfigUtil.hbaseFile)); conf.addResource(new Path(ConfigUtil.coreFile)); conf.addResource(new Path(ConfigUtil.hdfsFile)); if(ConfigUtil.kerberos==1) { System.setProperty("java.security.krb5.conf", "/etc/krb5.conf"); UserGroupInformation.setConfiguration(conf); UserGroupInformation.loginUserFromKeytab(ConfigUtil.kerberosUser,ConfigUtil.kerberosFile); HBaseAdmin.available(conf); } this.connection=ConnectionFactory.createConnection(conf); } /** * 范围查询 * @param tableName 表名 * @param startRowkey 开始rowkey * @param endRowkey 结束rowkey不查询 * @return */ public ListgetData(String tableName,String startRowkey,String endRowkey){ log.info("Search Table {} ,Startrowkey:{} ,Endrowkey:{}",tableName,startRowkey,endRowkey); List dataList=new ArrayList<>(); ResultScanner resultList = null; String rowkey; String filterString=startRowkey.substring(4); try { Table tableModel=connection.getTable(TableName.valueOf(tableName)); Scan scan = new Scan(); //添加start和end scan.withStartRow(Bytes.toBytes(startRowkey)); scan.withStopRow(Bytes.toBytes(endRowkey)); scan.addColumn(Bytes.toBytes(ConfigUtil.familyName), Bytes.toBytes(ConfigUtil.cloumnName)); resultList = tableModel.getScanner(scan); if(resultList!=null) { for (Result result : resultList) { //TODO 添加rowkey规范验证 rowkey = Bytes.toString(result.getValue(Bytes.toBytes(ConfigUtil.familyName), Bytes.toBytes(ConfigUtil.cloumnName))); if(StringUtil.isNotEmpty(rowkey)) { dataList.add(rowkey); } } } tableModel.close(); } catch (Exception e) { log.error(e.toString(),e); } return dataList; } /** * 根据rowkey批量查询 * @param tableName 表名 * @param rowkeyList rowkey列表 * @return */ public List getDataList(String tableName,List rowkeyList){ log.info("Search Table {} ,rowkeyList:{} ",tableName,JsonUtil.toJson(rowkeyList)); List dataList=new ArrayList<>(); try { Table tableModel=connection.getTable(TableName.valueOf(tableName)); List getList=new ArrayList<>(); for(String rowkey:rowkeyList) { getList.add(new Get(Bytes.toBytes(rowkey))); } //查询 Result[] resultList=tableModel.get(getList); //存储数据 if(resultList!=null&&resultList.length>0) { Cell[] cellList; for(Result result:resultList) { cellList=result.rawCells(); for(Cell cell:cellList) { dataList.add(Bytes.toString(cell.getValueArray())); } } } tableModel.close(); } catch (Exception e) { log.error(e.toString(),e); } return dataList; } /** * 创建表 * @param tableName */ public boolean createTable(String tableName){ try { //判断数据库是否存在 Admin admin=this.connection.getAdmin(); NamespaceDescriptor[] namespace=admin.listNamespaceDescriptors(); int state=0; //获取命名空间 if(namespace.length>0) { for(NamespaceDescriptor name:namespace){ if(name.getName().equals(ConfigUtil.dataName)){ state=1; } } } //创建命名空间 if(state==0){ log.info("Create NameSpace {}",ConfigUtil.dataName); admin.createNamespace(NamespaceDescriptor.create(ConfigUtil.dataName).build()); } TableName table= TableName.valueOf(ConfigUtil.dataName+":"+tableName); //创建表 if(admin.tableExists(table)){ log.info("{} tables Exists!",tableName); }else{ log.info("Create Table {}",tableName); //表描述器构造器 TableDescriptorBuilder tdb =TableDescriptorBuilder.newBuilder(table); //列族描述起构造器 ColumnFamilyDescriptorBuilder cdb = ColumnFamilyDescriptorBuilder.newBuilder(Bytes.toBytes(ConfigUtil.familyName)); //存储时间 cdb.setTimeToLive(ConfigUtil.saveTime*24*60*60); //获得列描述起 ColumnFamilyDescriptor cfd = cdb.build(); //添加列族 tdb.setColumnFamily(cfd); //获得表描述器 TableDescriptor td = tdb.build(); //创建表 admin.createTable(td); log.info("{} Table Create Success!",tableName); } return true; } catch (Exception e) { log.error(e.toString(),e); } return false; } /** * 判断表是否存在 * @param tableName * @return */ public boolean getTableStatus(String tableName){ try { Admin admin=this.connection.getAdmin(); return admin.tableExists(TableName.valueOf(ConfigUtil.dataName+":"+tableName)); } catch (Exception e) { log.error(e.toString(),e); } return false; } /** * 删除表 */ public boolean delTable(String tableName){ try { TableName table=TableName.valueOf(ConfigUtil.dataName+":"+tableName); Admin admin=this.connection.getAdmin(); if(admin.tableExists(table)){ admin.disableTable(table); admin.deleteTable(table); log.info("Delete {} Success!",tableName); }else{ log.info("No Found Table:{}",tableName); } return true; } catch (Exception e) { log.error(e.toString(),e); } return false; } /** * 添加数据 * @param tableName * @param data */ public void addData(String tableName,Map data) { try { Table tableModel=connection.getTable(TableName.valueOf(ConfigUtil.dataName+":"+tableName)); List puts = new ArrayList<>(); Put put; for(Map.Entry entry:data.entrySet()) { put= new Put(Bytes.toBytes(entry.getKey())); put.addColumn(Bytes.toBytes(ConfigUtil.familyName),Bytes.toBytes(ConfigUtil.cloumnName), Bytes.toBytes(entry.getValue())); puts.add(put); } tableModel.put(puts); tableModel.close(); } catch (Exception e) { log.error(e.toString(),e); } } /** * 关闭连接 */ public void close() { try { this.connection.close(); } catch (IOException e) { log.error(e.toString(),e); } } }
到此,关于“HBase2 java Api接口举例分析”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注创新互联网站,小编会继续努力为大家带来更多实用的文章!