1 | fcitx | xargs kill |
或者编写Shell脚本restart_sougou.sh,放到/usr/bin
目录下,不要忘记chmod修改运行权限,然后就能在终端输入restart_sougou命令来执行重启搜狗输入法
1 | #!/bin/sh |
1 | fcitx | xargs kill |
或者编写Shell脚本restart_sougou.sh,放到/usr/bin
目录下,不要忘记chmod修改运行权限,然后就能在终端输入restart_sougou命令来执行重启搜狗输入法
1 | #!/bin/sh |
1.Master/Slave 已经不推荐
2.Replica Set
3.Sharded Cluster,其包含3个组件:mongos,config server和mongod
参考:mongodb 三种集群的区别(Replica Set / Sharding / Master-Slaver)
Mongodb高级篇-Replication & Sharding
https://www.mongodb.com/docs/manual/sharding/#sharded-cluster
1.primary节点
2.secondary节点
SVM有很多实现,现在只关注其中最流行的一种实现,即序列最小优化(Sequential Minimal Optimization,SMO)算法,然后介绍如何使用一种核函数(kernel)的方式将SVM扩展到更多的数据集上。
1.基于最大间隔分隔数据
几个概念:
1.线性可分(linearly separable):对于图6-1中的圆形点和方形点,如果很容易就可以在图中画出一条直线将两组数据点分开,就称这组数据为线性可分数据
2.分隔超平面(separating hyperplane):将数据集分隔开来的直线称为分隔超平面
3.如果数据集是1024维的,那么就需要一个1023维的超平面来对数据进行分隔
4.间隔(margin):数据点到分隔面的距离称为间隔
5.支持向量(support vector):离分隔超平面最近的那些点
支持向量机的优点:泛化错误率低,计算开销不大,结果易解释
支持向量机的缺点:对参数调节和核函数的选择敏感,原始分类器不加修改仅适用于处理二类问题
适用数据类型:数值型和标称型数据**
**
2.寻找最大间隔
如何求解数据集的最佳分隔直线?
分隔超平面的形式可以写成
其中 w = (w1,w2,w3…wd)为法向量,决定了超平面的方向,其中d等于数据的维度,
在做用户增长的时候需要对各渠道(广告投放平台,如腾讯广告、字节-巨量引擎、百度营销平台等)上的投放效果进行广告归因,归因的作用是判断用户从何渠道下载应用(或打开落地页、小程序),通过匹配用户广告行为,分析是何原因促使用户产生转化。 广告归因的数据结果是衡量广告效果、评估渠道质量的重要依据,可帮助广告主合理优化广告素材,高效开展拉新、促活营销推广。
参考:神策广告归因介绍
1.用户A在app1上点击了app2在渠道方(各种投放平台,比如巨量引擎)投放的广告,这时候渠道方就知道用户A点击了广告
2.第三方归因平台(即下图中的服务端,比如字节穿山甲的增长参谋)会和很多的渠道方进行合作,渠道方支持将数据回传给第三方的归因平台,比如oaid,imei这种的用户ID,一般需要在渠道方的平台上进行配置,参考:appsflyer-巨量引擎广告归因配置 - Bytedance Ads Configuration
3.当用户首次打开APP的时候,会将埋点数据上报给第三方的归因平台(像穿山甲会提供SDK用于上传打点),一般也是在渠道方平台上进行配置,参考:归因结果兼容API使用说明:穿山甲
4.归因平台再将激活的数据回传给各个渠道方,用于优化投放的点击率(CTR)
5.归因平台完成渠道归因
6.上报数据到数据仓库中
7.app内部打点统计次留,播放,付费的时间,上报给归因平台
8.归因再将这些转化数据回传给各个渠道方,用于优化投放的转化率(CVR)
1.基于Logistic回归和Sigmoid函数的分类
2.基于最优化方法的最佳回归系数确定
2.1 梯度上升法
参考:机器学习——梯度下降算法
2.2 训练算法:使用梯度上升找到最佳参数
Logistic回归梯度上升优化算法
1 | def loadDataSet(): |
1 | dataMat,labelMat = loadDataSet() |
如果遇到auth遗忘,又想删除zknode的情况,可以使用超级用户用来删除zknode
超级用户只能在zkserver启动的时候启用,需要在zkserver的启动命令中添加 -Dzookeeper.DigestAuthenticationProvider.superDigest
参数
1 | -Dzookeeper.DigestAuthenticationProvider.superDigest=super:xQJmxLMiHGwaqBvst5y6rkB6HQs= |
然后就可以使用 super:admin 的auth来删除zknode
1 | [zk: localhost:2181(CONNECTED) 15] addauth digest super:admin |
参考:zookeeper acl认证机制及dubbo、kafka集成、zooviewer/idea zk插件配置
1.基于贝叶斯决策理论的分类方法
2.使用朴素贝叶斯进行文档分类
使用Python进行文本分类
1.准备数据:从文本中构建词向量
1 | def loadDataSet(): |
1 | listOPosts,listClasses = loadDataSet() |
1 | 某个文档: |
2.训练算法:从词向量计算概率