subtitle
联合概率分布 联合概率分布
在概率论中, 对两个随机变量X和Y,其联合分布 (Joint probability distribution) 是同时对于X和Y的概率分布。事件A 和B 同时发生概率记为 $P(A, B)$。 离散随机变量的联合分布对离散随机变量而言
极大似然估计 极大似然估计
在统计学中,最大似然估计(英语:Maximum Likelihood Estimation,简作MLE),也称极大似然估计,是用来估计一个概率模型的参数的一种方法。 频率学派 vs 贝叶斯学派频率学派与贝叶斯学派探讨「不确定性」这件事时
贝叶斯分类器 贝叶斯分类器
贝叶斯决策论贝叶斯决策论(Bayesian decision theory)是概率框架下实施决策的基本方法。 极大似然估计估计类条件概率的一种常用策略是先假定其具有某种确定的概率分布,再基于训练样本对概率分布的参数进行估计。 朴素贝叶斯
朴素贝叶斯方法概览 朴素贝叶斯方法概览
源于托马斯·贝叶斯(Thomas Bayes)生前为解决一个“逆概”问题写的一篇文章,而这篇文章是在他死后才由他的一位朋友发表出来的。 什么叫逆概问题在贝叶斯写这篇文章之前,人们已经能够计算“正向概率”,如“假设袋子里面有N个白球,M个
先验概率和后验概率 先验概率和后验概率
讲解先验概率(Prior probability)和后验概率(Posterior probability)最好的方法是举例子。 例子 1一般情况下发生了交通事故,更容易堵车。 先验概率:今天出门堵车的可能性 $P(堵车)$ 条件概率
Bias-Variance Tradeoff Bias-Variance Tradeoff
While training our model Bias and Variance plays a key role in achieving the required accuracy of the model.There need t
Ensemble Learning Ensemble Learning
集成多个算法结果得到比任何单个算法更好的结果,称为集成学习。 常见的集成学习方法有: 贝叶斯最优分类器 Bootstrap aggregating(又称 Bagging)。代表算法随机森林。 Boosting。代表算法 AdaBoos
随机森林 随机森林
随机森林是一种具有代表性的 Bagging(装袋法)集成算法。 工作原理把 n 个基评估器的结果,汇总后得到集成算法的结果,以此得到比单个评估器更好的模型表现。 其中每个基评估器都是决策树,所以称呼森林; 随机挑选特征和数据,生成 n
使用交叉验证选择决策树预剪枝参数 max_depth 使用交叉验证选择决策树预剪枝参数 max_depth
max_depth 限制树的最大深度,超过设定深度的树枝全部剪掉。 准备数据from sklearn import tree from sklearn.datasets import load_wine from sklearn.mo
支持向量机相关习题 支持向量机相关习题
比较感知机的对偶形式与线性可分支持向量机的对偶形式 已知正例点$x_1=(1,2)^T$,$x_2=(2,3)^T$,$x_3=(3,3)^T$,负例点$x_4=(2,1)^T$,$x_5=(3,2)^T$,试求最大间隔分离超平面和分类决
3 / 5