当前位置:网站首页>3.1-分类-概率生成模型

3.1-分类-概率生成模型

2022-08-11 06:50:00 一条大蟒蛇6666

一、分类(Classification)

  • 对于分类这个任务而言,同回归相似,同样是找一个函数 f,他的输入是一个对象 x,输出是一个类别 class n
  • 这样的分类任务现实中有很多,比如:
    • 信用评分
      • 输入:收入,存款,职业,年龄,过去的财务状况
      • 输出:接受或拒绝
    • 医学诊断
      • 输入:目前的症状、年龄、性别、过去的医疗记录
      • 输出:哪种疾病
    • 手写字符识别
      • 输入:手写字符
      • 输出:相对应的数字编码字符
    • 人脸识别
      • 输入:脸的图像
      • 输出:与之相对应的人

1.1 应用示例

  • 下面以宝可梦分类为例,每一只宝可梦都可以用7种属性来描述:Total,HP,Attack,Defense,SP Atk,SP Def,Speed。下面我们将根据这些属性来预测一只宝可梦到底属于什么类别。
  • 假如我们还没有学习如何采用分类的方法来解这个问题,此时我们通过回归的方法来硬解这个问题,看一看下面会出现什么情况。以二分类的问题为例:
    • 如图回归模型会惩罚那些太正确,输出值太大的那些点,这样得到的结果反而是不好的。
image-20220807172631858
  • 理想的选择(Ideal Alternatives)
    • 定义一个模型g(x),当输入x时,输出大于0就输出class 1,否则输出class 2
    • loss函数用来统计在训练集中预测错误的次数
    • 寻找最优解的方法有感知机(Perceptron),支持向量机(SVM),生成模型(Generative Model)
image-20220807180748325
  • 生成模型(Generative Model)

    1. 根据训练集来估测x发生的概率P(x),这就是生成模型。

    image-20220807203834067image-20220807203907816

    1. 先验概率(Prior):P(C1)和P(C2)是可以根据已有训练集先算出来的

    image-20220807204637322image-20220807204808333

    1. 高斯分布(Gaussian distribution):任何一只宝可梦都可以通过它们的一组属性向量来表示,下面我们取Defense,SP Def这两个属性组成的二维向量来表示一只宝可梦。由于测试集里的这只海龟我们无法知道它的先验概率P(x),因此我们假设已有的训练集是从一个高斯分布里采样得到的,那么现在我们就能估测这只海龟的先验概率是多少了。

      对于高斯分布而言,它的输入是一个向量x,输出是一个抽样概率Font metrics not found for font: .,其函数的形状由均值𝝁和协方差矩阵𝜮确定

image-20220807205046773image-20220807205925111

image-20220807213131362image-20220807213057911

  1. 最大似然估计(Maximum Likelihood):由于每个点都是独立从高斯分布中采样出来的,而这79个点是又有可能从不同的高斯分布中采样出来。对不同的高斯分布而言,会有不同的相似度(Different Likelihood)。因此我们需要找到一个相似度Font metrics not found for font: .最高的高斯分布Font metrics not found for font: .

    右图是我们实际计算出来的水系和一般系宝可梦的均值𝝁和协方差矩阵𝜮

image-20220807214531522image-20220807214559886

二、预测

  • 右图是我们根据模型在测试集上进行预测得到的准确率,2个参数的准确率为47%,7个参数的准确率为54%,很显然我们的模型效果非常差,需要继续进行优化。

image-20220807215128756image-20220807215249421

  • 修正模型(Modifying Model):比较常见的一个做法是不同的类可以共享同一个协方差矩阵𝜮,这样我们就可以通过减少模型的参数来降低方差(variance),从而得到一个更加简单的模型。其中u1和u2的算法没有变,而𝜮变成了之前𝜮1和𝜮2两者之间的加权平均和。结果从53%提高到了73%

image-20220807215649508image-20220807215705575

image-20220807215724575

三、总结

  • 左图是分类这个任务的三步分析流程,右图是我们采用的概率分布模型不一定要是高斯分布,如果我们遇到一个二分类的问题,可以使用伯努利分布(Bernoulli distributions);如果假设所有维度都是独立的,那么可以使用朴素贝叶斯分类器(Naive Bayes Classifier)。

image-20220807223631752image-20220807223808124

  • 后验概率(Posterior Probability):在根据一大堆无聊的数学推导后,我们得到了最终的P(C1|x)的数学表达式。但是为了得到w和b,在生成模型中,我们估计了𝑁1,𝑁2, 𝜇1, 𝜇2, Σ这么多的参数,似乎有点舍近求远,我们为何不从一开始就直接去找w和b呢?下一章的逻辑回归我们会深入探讨这个问题。

image-20220807224556464image-20220807224614839

image-20220807224731432
原网站

版权声明
本文为[一条大蟒蛇6666]所创,转载请带上原文链接,感谢
https://blog.csdn.net/weixin_46227276/article/details/126218905