Linux、hive及Sqoop常用命令

一、Linux常用脚本

1.查看进程

ps -ef|grep -i tom

2.SCP从远程复制到本地目录

scp root@/172.19.2.75:/home/root/full.tar.gz /home/daisy/full.tar.gz

3.查看目录

pwd

4.查看hadoop集群状态命令

hadoop dfsadmin -report

5.查看default getway命令

route 或者 netstat -r

6.添加default getway命令

route add default gw 10.25.125.1

7.重启网卡服务

service network restart

8.配置网卡命令

首先进入目录/etc/sysconfig/network-script DEVICE=eth0  BOOTPROTO=none  ONBOOT=yes  TYPE=Ethernet  NETMASK=255.255.255.0  IPADDR=IP地址  USERCTL=no  PEERDNS=yes

  GATEWAY=网关地址

9.查看防火墙状态 /etc/init.d/iptables status 暂时关闭防火墙: /etc/init.d/iptables stop 禁止防火墙在系统启动时启动 /sbin/chkconfig –level 2345 iptables off 重启iptables: /etc/init.d/iptables restart 即时生效,重启后失效 service 方式 开启: service iptables start 关闭: service iptables stop 执行清楚命令

iptables -F

10.uname -r/uname -a 查看操作系统版本

11.cat /proc/cpuinfo | grep name | cut -f2 -d: | uniq -c

12.du -sh mul/ 查看当前文件目录大小 du -sm * | sort -n //统计当前目录大小 并安大小 排序 du -sk *|grep -data //查看一个文件夹大小

du data *|wc -l //查看当前目录下文件数

13.hadoop查看数据命令 hadoop fs -du /data1/hive/warehouse/ kill 命令

hadoop job -kill jobid

14.赋权命令 chown –help 帮助

chown -R cup:hadoop data/

15.定时命令 crontab -l 查看定时 crontab -e 设置定时 前5个字段分别表示: 分钟:0-59 小时:1-23 日期:1-31 月份:1-12 星期:0-6(0表示周日)

二、hive非交互模式命令

1.可以将hive执行的sql语句保存到脚本文件中,通过-f选项制定脚本文件执行hive

eg:hive -f script.sql

2.对于较短的sql语句,可以直接使用-e选项运行hive

eg:hive -e ‘select * from table a’

3.-S选项 hive执行过程中,会在终端上显示mapreduce的进度。如果不想显示进度,可以使用-S选项。 这个静音模式很实用,,通过第三方程序调用,第三方程序通过hive的标准输出获取结果集。 eg:$HIVE_HOME/bin/hive -S -e ‘select a.col from tab1 a’ > tab1.csv

三、Sqoop常用命令

1、列出mysql数据库中的所有数据库

sqoop list-databases –connect jdbc:mysql://localhost:3306/ -username 111 -password 111

2、连接mysql并列出数据库中的表

sqoop list-tables –connect jdbc:mysql://localhost:3306/test –username 111 –password 111

3、将关系型数据的表结构复制到hive中 sqoop create-hive-table –connect jdbc:mysql://localhost:3306/test –table users –username dyh –password 000000 –hive-table users –fields-terminated-by "\0001" –lines-terminated-by "\n"; 参数说明: –fields-terminated-by "\0001" 是设置每列之间的分隔符,,"\0001"是ASCII码中的1,它也是hive的默认行内分隔符, 而sqoop的默认行内分隔符为"," –lines-terminated-by "\n" 设置的是每行之间的分隔符,此处为换行符,也是默认的分隔符;

注意:只是复制表的结构,表中的内容没有复制

4、将数据从关系数据库导入文件到hive表中 sqoop import –connect jdbc:mysql://localhost:3306/test –username dyh –password 000000 –table users –hive-import –hive-table users -m 2 –fields-terminated-by "\0001"; 参数说明: -m 2 表示由两个map作业执行;

–fields-terminated-by "\0001" 需同创建hive表时保持一致;

只有不断找寻机会的人才会及时把握机会。

Linux、hive及Sqoop常用命令

相关文章:

你感兴趣的文章:

标签云: