1.hive sql提交到yarn上面执行之后,将会成为MR任务执行
正在运行的MR任务的application查看的url,不同类似的任务查看的url可能会不同,比如Spark,Flink等
1 | http://xxxx:8088/cluster/app/application_158225xxxxx_0316 |
运行结束的MR任务的查看url
1 | http://xxxx:19888/jobhistory/job/job_1582255xxxx_0316 |
具体hive sql的具体执行用户,sql内容等信息到配置进行查看
1 | http://xxxx:19888/ws/v1/history/mapreduce/jobs/job_15822552xxxxx_0298/conf |
如执行用户hive.server2.proxy.user
具体执行的sql语句hive.query.string
Application和Job的区别
1 | Job:源于Hadoop 1.0的概念,一般指用户提交的MapReduce作业。当然,具体到客户端提交的spark作业,也会根据action,将作业的DAG划分成多个job。这个以后再具体说。 |