Hadoop
HDFS
# 启动
$HADOOP_HOME/sbin/start-dfs.sh
# 关闭
$HADOOP_HOME/sbin/stop-dfs.sh
# 访问地址
http://master:9870/
YARN
# 启动
$HADOOP_HOME/sbin/start-yarn.sh
# 关闭
$HADOOP_HOME/sbin/stop-yarn.sh
# 访问地址
http://slave1:8088/
历史服务器
# 启动
mapred --daemon start historyserver
# 关闭
mapred --daemon stop historyserver
# 访问地址
http://slave2:19888/
Zookeeper
# 启动
$ZK_HOME/bin/zkServer.sh start
# 关闭
$ZK_HOME/bin/zkServer.sh stop
Spark
spark
# 启动
$SPARK_HOME/sbin/start-all.sh
# 关闭
$SPARK_HOME/sbin/stop-all.sh
# 访问地址
http://master:8081/
历史服务器
# 启动
$SPARK_HOME/sbin/start-history-server.sh
# 关闭
$SPARK_HOME/sbin/stop-history-server.sh
# 访问地址
http://master:18080/
Hive
cli
# 启动
hive
hive -hiveconf hive.exec.mode.local.auto=true;
# 退出
quit;
hiveserver2
nohup $HIVE_HOME/bin/hiveserver2 >/dev/null 2>&1 &
beeline
$HIVE_HOME/bin/beeline
# 连接
!connect jdbc:hive2://master:10000
# 提示输入用户名:root
Enter username for jdbc:hive2://master:10000:
# 提示输入密码:不填直接回车
Enter password for jdbc:hive2://master:10000:
# 退出
!quit
HBase
# 单点启动
hbase-daemon.sh start master
hbase-daemon.sh start regionserver
# 关闭
hbase-daemon.sh stop master
hbase-daemon.sh stop regionserver
# 群启
start-hbase.sh
# 关闭
stop-hbase.sh
# 启动命令行交互模式
hbase shell
# 关闭
!quit
# 访问地址
http://master:16010/
http://slave1:16010/
ClickHouse
# 启动
clickhouse-client --password
# 退出
quit
Azkaban
Executor Server
# 三台节点启动
cd /opt/module/azkaban-3.84.4/azkaban-exec
bin/start-exec.sh
# 三台节点激活
curl -G "master:12321/executor?action=activate" && echo
curl -G "slave1:12321/executor?action=activate" && echo
{"status":"success"} # 出现表示成功
Web Server
# 三台节点启动
cd /opt/module/azkaban-3.84.4/azkaban-web
bin/start-web.sh
# 访问地址
master:8081