1.下载安装文件
1 | https://github.com/docker/kitematic/releases |
解压并安装
1 | sudo dpkg -i ./Kitematic-0.17.10_amd64.deb |
启动,然后可以启动容器
1.下载安装文件
1 | https://github.com/docker/kitematic/releases |
解压并安装
1 | sudo dpkg -i ./Kitematic-0.17.10_amd64.deb |
启动,然后可以启动容器
本来想cdh集成flink,但是我的cdh版本为5.16.2,参考了下面的issue可能cdh版本太低,至少要cdh6
1 | https://github.com/pkeropen/flink-parcel/issues |
进行独立安装
1 | wget https://archive.apache.org/dist/flink/flink-1.10.0/flink-1.10.0-bin-scala_2.11.tgz |
安装路径
1 | /home/lintong/software/apache/flink-1.10.0 |
/etc/profile添加,并source /etc/profile
1 | #flink |
下载flink-shaded-hadoop-2-uber-2.7.5-7.0.jar包,放到flink的lib目录下
1 | wget https://repo1.maven.org/maven2/org/apache/flink/flink-shaded-hadoop-2-uber/2.7.5-7.0/flink-shaded-hadoop-2-uber-2.7.5-7.0.jar |
不然flink on yarn的时候会报
1 | Error: A JNI error has occurred, please check your installation and try again |
启动yarn-session
1 | yarn-session.sh -n 3 -s 5 -jm 1024 -tm 4096 -d |
yarn-seesion参数
1 | -n : 指定TaskManager的数量; |
去CDH上查看,第一个是正在运行,第二个是结束
去appliance id进到yarn的app页面
1.hive sql提交到yarn上面执行之后,将会成为MR任务执行
正在运行的MR任务的application查看的url,不同类似的任务查看的url可能会不同,比如Spark,Flink等
1 | http://xxxx:8088/cluster/app/application_158225xxxxx_0316 |
1.yarn top,查看yarn上面的资源使用情况
2.队列使用状态
1 | queue -status root.xxx_common |
3.查看yarn上运行的任务列表,如果集群有krb认证的话,需要先kinit,认证后可以看到所有正在运行的任务
1 | yarn application -list |
结果
1 | Total number of applications (application-types: [] and states: [SUBMITTED, ACCEPTED, RUNNING]):12 |
使用状态进行筛选
1 | yarn application -list -appStates RUNNING |
4.查看任务状态信息
1 | yarn application -status application_1582255xxxx_0314 |
Shard是什么?
在下面的文档中进行了介绍
1 | https://www.elastic.co/guide/cn/elasticsearch/guide/current/kagillion-shards.html |
1.一个分片的底层即为一个 Lucene 索引,会消耗一定文件句柄、内存、以及 CPU 运转。
在最新的mac catalina系统中,已经从karabiner更名为karabiner-elements,安装的版本为Karabiner-Elements-12.9.0
参考:https://juejin.im/post/5daec26a51882575d50cd0aa
1.查看brew当前源
1 | git -C "$(brew --repo)" remote -v |
2.改成清华的源
1 | git -C "$(brew --repo)" remote set-url origin https://mirrors.tuna.tsinghua.edu.cn/git/homebrew/brew.git |
已经修改成清华的源
1 | git -C "$(brew --repo)" remote -v |
或者改成中科大的源
1 | # 替换 Homebrew |
如果想还原
1 | git -C "$(brew --repo)" remote set-url origin https://github.com/Homebrew/brew.git |
1.在 ~/.zshrc 中添加
1 | source ~/.bash_profile |
参考:https://blog.csdn.net/qq_18505715/article/details/83276208
项目中有一张表是记录人员,在每个新用户调用接口认证通过了之后,会有一个往该表插入这个新用户信息的操作。
但是在线上环境中,发现该表的自增id不连续,且间隔都是差了2,比如上一个人的id是10,下一个人的id就是12,而在前端页面中,一个用户认证通过后,会调用3个接口,初步排查是MySQL并发操作导致了自增id不连续的情况
在这篇文章中,列举了导致自增id不连续的几个原因,这次遇到的就是第一种情况,因为个人的信息中我设置了唯一索引,参考:MySQL实战45讲Day38—-自增主键不是连续的原因
<1>、唯一键冲突是导致自增主键id不连续的第一种原因
<2>、事务回滚是导致自增主键id不连续的第二种原因
<3>、批量申请自增id的策略是导致自增主键id不连续的第三种原因
在这篇文章中提到了MySQL默认的innodb_autoinc_lock_mode=1,当innodb_autoinc_lock_mode=1和innodb_autoinc_lock_mode=2的情况下,自增id可能会出现不连续
在innodb_autoinc_lock_mode=0的时候,自增id是连续的,但是会导致锁表,影响并发性能
解决方法: