逆概率公式的推导,贝叶斯网络分类器和神经网络分类器的区别是什么

逆可能性公式的推导
一、可能性公式和贝叶斯公式
1、可能性的加法公式
(1)若事件A与事件B互斥,则P(A∪B)=P(A)+P(B)。
(2)若事件A与事件B互为对立事件,则A∪B 为肯定事件,P(A∪B)=1,P(A)=1-P(B)。
当一个事件的可能性不易得出,但其对立事件的可能性容易得出时,可运用此公式,即间接法求可能性。
2、已知两个事件A,B的可能性分别是P(A),P(B),既然如此那,有请看下方具体内容结论:
(1)A,B中至少有一个出现,其可能性为P(A∪B)。
若A,B互斥,则有P(A∪B)=P(A)+P(B)。
若A,B相互独立,则有P(A∪B)=1-
P(A―)P(B―)或P(A∪B)=P(A)+P(B)−P(AB)。
(2)A ,B都出现,其可能性为P(AB)。
若A,B互斥,则有P(AB)=0。
若A,B相互独立,则有P(AB)=P(A)P(B)。
(3)A ,B都不出现,其可能性为
P(A―B―)。
若A,B互斥,则
P(A―B―)=1-[P(A)+P(B)]。
若A,B相互独立,则有
P(A―B―)=
P(A―)P(B―)。
(4)A ,B恰有一个出现,其可能性为
P(AB―∪A―B)。
若A,B互斥,则有
P(AB―∪A―B)=P(A)+P(B)。
若A,B相互独立,则有
P(AB―∪A―B)=
P(A)P(B―)+P(A―)P(B)。
(5)A,B中至多有一个出现,其可能性为
P(A―B―∪AB―∪A―B)。
若A,B互斥,则
P(A―B―∪AB―∪A―B)=1。
若A,B相互独立,则
P(A―B―∪AB―∪A―B)=1-P(A)P(B)。
3、条件可能性公式:
P(B|A)=P(AB)P(A)(在事件A出现的条件下,事件B出现的可能性)。
4、全可能性公式:
P(B)=∑i=1nP(Ai)P(B|Ai),i=1,2,⋯,n。
5、贝叶斯公式:
P(Ai|B)=P(Ai)P(B|Ai)∑k=1nP(Ak)P(B|Ak),i=1,2,⋯,n。
二、可能性公式的有关例题
已知随机事件,A,B出现的可能性满足条件
P(A∪B)=34,某人猜测事件
A―∩B―出现,则此人猜测正确的可能性为
A.1B.
12C.
14D.0
答案:C
剖析解读:事件
A―∩
B―与事件A∪B是对立事件,则P(
A―∩
B―)=1-P(A∪B)=1-
34=
14,故选:C。
贝叶斯互联网分类器和神经互联网分类器的区别?
贝叶斯分类器由可能性统计得出,和神经互联网都需经过训练得到对应的分类的功能,假设非要说区别,就是结构上的区别,神经互联网通过高阶级数或者几何空间逼近,大量多的节点构成了很复杂的数据有关性,而贝叶斯分类器则通过每个模式(事件几何下)中出现该事件的可能性来反过来推导出现该这些事件可能性后属于那种模式,理论上神经互联网是连续系统,贝叶斯不是连续的,并且贝叶斯不可以处理维度间高度有关性的事件(这个问题就好比z=ax+by,但y里又有x的有关因子,x和y依然不会独立),而神经互联网没这个问题。
对人工智能很感兴趣,打算学习,请问需什么数学基础?
数学困扰各位考生主要有这哪些方面:
1、 机器学习需的数学知识是不是超级难,网络在线的公式都看不懂?
2、 不少人都说工作后就是调参,调包,不太需用到数学吧?
3、 零基础究竟该怎么自学数学,学到哪个程度?
观点:
1、数学是一定要的。
数学针对机器学习来说是必备基础,数学是内功,你要理解一个算法的内在逻辑,没有数学是不行的。以后跑算法时,你可能就是调参、调包,不会用到数学。但是,你发现效果不好时,假设你数学不懂,就超级难作优化,数学是你在机器学习路上的To be No.1。
2、数学也不是超级难。
但是数学真的超级难吗?说实话,针对大多数情况下人来说是有点门槛的,但没有你想的既然如此那,难。这里假设你上过大学的数学课,你就具备了机器学习的数学入门门槛了,后面的数学啃一啃是可以下来的。假设说你没有上过大学的数学,emmm,挺难的,这说明你除了跟别人付出同样的努力之外,还需要多付出一部分大学数学的学习。
3、 相比于数学,实质上项目能力更加重要。
这句话没错,可是大多数人在没接触到实质上项目标时候,就已经被挡在门外了。不少从事机器学习的你问他数学,他可能也不是很懂,可是你能咋办。人家面试你时就要问你这些,问你对算法的理解,你不会那你就过不了面试啊。
4、 学习是枯燥的,但是,有办法缓解。
在学习算法时,我们会看到不少推导,学着学着就怕了,就失去兴趣了,这里有一个方式可以有效缓解。我以前的系列中有本书叫做机器学习实战,跟着上面的代码敲一敲,比较容易出成果,你会看到在现实中的实质上应用,很有成就感。
5、 数学的学习是可以“取巧”的
这里说的取巧指的是,数学的学习是有迹可循的,因为入门阶段的数学其实还要那些,列出来,你自己啃一下完全就能够了。详细的学习方式不是等你把数学都学好了再去学算法知识。而是你在学习算法时,看到你数学缺哪块再去补哪块,这是高效的。当然了,在这以前你可以通读一遍数学的基础,对学习有一个大约是更好的。
数学必备重要内容及核心考点
1、 线性代数
标量、向量、矩阵和张量;矩阵向量的运算;单位矩阵和逆矩阵;行列式;方差,标准差,协方差矩阵;范数;特殊类型的矩阵和向量;特点分解还有其意义;奇异值分解及其意义
Moore-Penrose 伪逆;迹运算
2、 可能性统计
可能性学派和贝叶斯学派;何为随机变量和何又为可能性分布;条件可能性,联合可能性和全可能性公式;边缘可能性;独立性和条件独立性;希望、方差、协方差和有关系数;经常会用到可能性分布;贝叶斯及其应用;中心极限制要求理;非常大似然估计;可能性论中的独立同分布
3、 优化
计算复杂性与NP问题;上溢和下溢;导数,偏导数及两个特殊矩阵;方向导数和梯度;梯度下降法;牛顿法;仿射集,凸集和凸锥;超平面,半空间及凸集分离定理;不改变凸性的运算;凸函数及凸优化简述;无管束的优化,等式管束优化,不等式管束优化;线性规划中对偶理论;拉格朗日对偶理论
4、 信息论及其他
信息熵;条件熵;相对熵 (KL散度);互信息;几种经常会用到的距离度量;图论;树论
上面数学差不多就是我们想学的数学的都了,看上去有点吓人是不?不要慌,没有既然如此那,难,一点点啃下去完全就能够了。
推荐资料:
资料一:机器学习王牌课程CS229课后配套数学,针对配套机器学习的。
资料二:Yoshua Bengio的《深度学习》书,网络在线公开的,前面有一些是对数学的针对介绍,很基础很全面。
数学基础篇
假设你上面三个材料给人的印象很吃力,或者说你的数学没有达到大学的水平。那就是数学基本功的问题了。针对这样的情况,我认为只可以把有关的大学数学书拿出来翻一翻,基本概念要弄懂,什么是矩阵、导数等等,偷不了懒。
1、数学分析与可能性论
同济大学数学教研室,高等数学,高等教育出版社,1996
王松桂、程维虎、高旅端,可能性论与数理统计,科学出版社,2023
2、矩阵和线性代数
同济大学数学系编,工程数学线性代数(第五版),高等教育出版社2023
以上三本数学书,假设你对基础概念忘了,可以选择性看下对应的篇章。
>>注册消防工程师视频网课教程培训班介绍,点击图片试听名师课程<<
