零落闲拾
EM算法学习 EM算法学习
EM 算法E 代表 expectation,求期望,M 代表 maximization 求极大.所以这一算法称为期望极大算法. 该算法用于含有隐变量的概率模型参数的极大似然估计. 算法EM 算法 输入:观测变量数据 Y,隐变量数据 Z,联合
2022-08-05
提升方法 提升方法
提升方法提升方法是一种提升模型准确度的方法。在分类问题中,通过改变样本训练权重,着重关注预测错误的数据,数据给多个分类器学习,再对其进行线性组合,使得预测准确率高的分类器有更高的权重。 接下来主要介绍 AdaBoost 算法。 AdaBoo
2022-08-04
向量机学习 向量机学习
向量机学习向量机和感知机很像,都是为了寻找一个超平面来对样本分类.但是从感知机的算法中可以知道,其寻找的只是一个能实现分类的超平面,而这样的超平面给可能有多个.向量机就不一样.其寻找的是最优的超平面,原理则是因为该超平面在建立的时候,其截距
2022-07-01
分类决策树 分类决策树
决策树本篇博客主要讨论分类决策树. 介绍决策树由结点和有向边组成,结点有两种类型:内部节点和叶节点,内部结点表示一个特征和属性,叶节点表示一个类. 决策树可以看成一个 if-then 规则,内部节点对应 if 的条件,叶节点代表最后的结果,
2022-06-27
朴素贝叶斯 朴素贝叶斯
朴素贝叶斯前言其实概统学完有一阵了,为什么这个时候才学习这个机器学习算法呢? 因为我摸了。 因为当时事业繁忙。写这篇博客的时候,略感轻松,正是夏夜,吹着冷风,索性写一下,免得忘记了,也不失零落闲拾之意。 导入整个朴素贝叶斯,最基本的公式如下
2022-06-20
马尔科夫链蒙特卡洛法学习笔记 马尔科夫链蒙特卡洛法学习笔记
马尔科夫链蒙特卡洛法蒙特卡洛法抽样方法蒙特卡洛法的抽样方法本质就是一个间接抽样方法,比如目标分布p(x)不可以直接抽样,但是q(x)容易抽样,那么可以设定$a(x) = \frac{p(x)}{q(x)}$为拒绝分布,堆q(x)的分布进行抽
2022-02-17
聚类方法学习 聚类方法学习
聚类方法基本概念聚类和分类的区别就是分类是提供了分类结果的,我们的目标是根据结果推原因,也就是执果索因,聚类我们是没有分类结果的,模型需要通过评价方法来判断那些是一类,那些不是一类,也就是执因索果 相似度或距离距离是判断样本间相似度的重要依
2022-02-13
Logistic回归和最大熵模型 Logistic回归和最大熵模型
Logistic回归虽然这个名字叫做logistic回归,但我感觉更像一种分布算法?(这是否也算一种ntr),其分布函数的基本结构是sigmoid函数.$$f(x) = \frac{1}{1+e^x}$$ logistic分布分布函数:$$
2022-02-12
k近邻法学习笔记 k近邻法学习笔记
k近邻法算法介绍K近邻算法(KNN,k-nearest,neighbor)给定训练集,对于新输入的实例找到离它最近的k个点,然后根据多数表决原则判断新的实例的类别. 距离的度量有不同的方法,总结起来就是闵氏距离(可见多元分析中的介绍). 为
2022-02-11
感知机模型 感知机模型
感知机模型介绍感知机简单来说就是找到一个平面,将数据分成两类.因为这是一个分类的模型,所以这一定是一个监督模型.这个模型的输入是实例的特征向量,输出的是+1和-1作为内边的判断. 模型函数$$f(x) = sign(\omega{x}+b)
2022-02-10