微信搜索superit|邀请体验:大数据, 数据管理、OLAP分析与可视化平台 | 赞助作者:赞助作者

导入数据到hive表中的6种方式

hive aide_941 30℃

数据导入六种方式
1、加载本地文件到hive表
语法


2、加载hdfs文件到hive中

3、加载数据覆盖表中已有的数据

4、创建表时通过select加载

create table if not exists default.dept_cats
as select * from dept;

hive> show databases;
hive> show tables;

5、创建表通过insert加载

6、创建表的时候通过location指定加载
外部表方式

hive>create external table if not exists emp_partition(
empno int,
ename string,
job string,
mgr int,
hiredate string,
sal double,
comm double,
deptno int
)
partitioned by (month string)
row format delimited fields terminated by '\t';


hive>load data local inpath '/opt/datas/emp.txt' into table default.emp_partition partition (month='201803');

这样就可以直接访问。
———————
作者:大数据践行者
来源:CSDN
原文:https://blog.csdn.net/qq_16095837/article/details/79464932
版权声明:本文为博主原创文章,转载请附上博文链接!

——-
hive操作:

[root@master input]# hive
hive> 
hive> create table users(id int, name string) row format delimited fields terminated by ',';
hive> create table users_hdfs(id int, name string) row format delimited fields terminated by ',';
hive> create table users_local(id int, name string) row format delimited fields terminated by ',';
hive> select * from users_local;
hive> show databases;
hive> show tables;

hive> load data [local] inpath '/root/input/user.txt' into table users;//语句
hive> load data inpath '/root/input/user.txt' into table users_hdfs;//hdfs
hive> load data local inpath '/root/input/user.txt' into table users_local;//本地表

hive做的只是把文件移到对应的目录下.

 

转载请注明:SuperIT » 导入数据到hive表中的6种方式

喜欢 (4)or分享 (0)