hbase importTSV工具(将一个TSV格式文件导入到表中)
运行命令,可以看到importTSV
/opt/bigdata/hadoop-2.7.3/bin/yarn jar /opt/bigdata/hbase-1.2.1/lib/hbase-server-1.2.1.jar
![importTSV工具使用](http://p2.ttnews.xyz/loading.gif)
运行可以出现提示信息
/opt/bigdata/hadoop-2.7.3/bin/yarn jar /opt/bigdata/hbase-1.2.1/lib/hbase-server-1.2.1.jar importtsv
提示信息
importtsv -Dimporttsv.columns=a,b,c <tablename> /<tablename>
![importTSV工具使用](http://p2.ttnews.xyz/loading.gif)
TSV文件格式:
(1)制表符分隔
(2)HBASE_ROW_KEY
(3)将数据文件put到hdfs上
我们现在,将一个固定格式文件导入到hbase表中
列与列之间要一一对应,vi一个tsv文件
vi stu_info_out
填入内容
202001061347 stu01 10 bj 1322
202001061348 stu08 10 bj 1322
202001061349 stu09 10 bj 1322
202001061346 stu06 10 bj 1322
202001061345 stu05 10 bj 1322
202001061344 stu04 10 bj 1322
将数据上传到hdfs上
先看下目录
创建一个新目录
/opt/bigdata/hadoop-2.7.3/bin/hdfs dfs -mkdir /importTSVData
将数据上传
/opt/bigdata/hadoop-2.7.3/bin/hdfs dfs -put /data/stu_info_out /importTSVData
创建一张表stu_info_importtsv
create 'stu_info_importtsv','f1','f2','f3'
数据是空的
/opt/bigdata/hadoop-2.7.3/bin/yarn jar /opt/bigdata/hbase-1.2.1/lib/hbase-server-1.2.1.jar importtsv -Dimporttsv.columns=HBASE_ROW_KEY,f1:name,f2:age,f3:addr,f1:location stu_info_importtsv /importTSVData
运行完成
查看数据已经有了
还可以以CSV文件格式导入
'-Dimporttsv.separator=|' 指定分隔符,默认是以tab分隔
准备数据
202001071347,stu01,10,bj,1322
202001071348,stu08,10,bj,1322
202001071349,stu09,10,bj,1322
202001071346,stu06,10,bj,1322
202001071345,stu05,10,bj,1322
202001071344,stu04,10,bj,1322
将数据上传到HDFS上
/opt/bigdata/hadoop-2.7.3/bin/hdfs dfs -put /data/stu_info_csv /importTSVData
运行语句
/opt/bigdata/hadoop-2.7.3/bin/yarn jar /opt/bigdata/hbase-1.2.1/lib/hbase-server-1.2.1.jar importtsv -Dimporttsv.separator=, -Dimporttsv.columns=HBASE_ROW_KEY,f1:name,f2:age,f3:addr,f1:location stu_info_importtsv /importTSVData/stu_info_csv
运行完成
查看数据是否有了
閱讀更多 分享電腦學習 的文章