欢迎来到天天文库
浏览记录
ID:50897098
大小:192.50 KB
页数:16页
时间:2020-03-15
《模式识别答案.doc》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库。
1、模式识别试题二 答案问答第1题 答:在模式识别学科中,就“模式”与“模式类”而言,模式类是一类事物的代表,概念或典型,而“模式”则是某一事物的具体体现,如“老头”是模式类,而王先生则是“模式”,是“老头”的具体化。问答第2题 答:Mahalanobis距离的平方定义为: 其中x,u为两个数据,是一个正定对称矩阵(一般为协方差矩阵)。根据定义,距某一点的Mahalanobis距离相等点的轨迹是超椭球,如果是单位矩阵Σ,则Mahalanobis距离就是通常的欧氏距离。问答第3题 答:监督学习方法用来对数据实现分类,分类规
2、则通过训练获得。该训练集由带分类号的数据集组成,因此监督学习方法的训练过程是离线的。 非监督学习方法不需要单独的离线训练过程,也没有带分类号(标号)的训练数据集,一般用来对数据集进行分析,如聚类,确定其分布的主分量等。 就道路图像的分割而言,监督学习方法则先在训练用图像中获取道路象素与非道路象素集,进行分类器设计,然后用所设计的分类器对道路图像进行分割。 使用非监督学习方法,则依据道路路面象素与非道路象素之间的聚类分析进行聚类运算,以实现道路图像的分割。问答第4题 答:动态聚类是指对当前聚类通过迭代运算改善聚类; 分级聚
3、类则是将样本个体,按相似度标准合并,随着相似度要求的降低实现合并。问答第5题 答:在给定观察序列条件下分析它由某个状态序列S产生的概率似后验概率,写成P(S
4、O),而通过O求对状态序列的最大似然估计,与贝叶斯决策的最小错误率决策相当。问答第6题 答:协方差矩阵为,则 1)对角元素是各分量的方差,非对角元素是各分量之间的协方差。 2)主分量,通过求协方差矩阵的特征值,用得,则,相应的特征向量为:,对应特征向量为,对应。这两个特征向量即为主分量。 3)K-L变换的最佳准则为: 对一组数据进行按一组正交基分解,在只取相同数
5、量分量的条件下,以均方误差计算截尾误差最小。 4)在经主分量分解后,协方差矩阵成为对角矩阵,因而各主分量间相关消除。问答第7题 答: 1、求数据集的主分量是非监督学习方法; 2、汉字识别对待识别字符加上相应类别号——有监督学习方法; 3、自组织特征映射——将高维数组按保留近似度向低维映射——非监督学习; 4、CT图像分割——按数据自然分布聚类——非监督学习方法;问答第8题 答:线性分类器三种最优准则: Fisher准则:根据两类样本一般类内密集,类间分离的特点,寻找线性分类器最佳的法线向量方向,使两类样本在该方向
6、上的投影满足类内尽可能密集,类间尽可能分开。 该种度量通过类内离散矩阵Sw和类间离散矩阵Sb实现。 感知准则函数:准则函数以使错分类样本到分界面距离之和最小为原则。 其优点是通过错分类样本提供的信息对分类器函数进行修正,这种准则是人工神经元网络多层感知器的基础。 支持向量机:基本思想是在两类线性可分条件下,所设计的分类器界面使两类之间的间隔为最大,它的基本出发点是使期望泛化风险尽可能小。问答第9题 答:按题意要求 1)H1与H2将空间划分成四个部分,按使H1与H2大于零与小于零表示成四个区域,而第一类属于(-+)区域
7、,为方便起见,令则第一类在(++)区域。用双层感知器,神经元用域值,则在第一类样本输入时,两隐层结点的输出均为+1,其余则分别为(+-),(――),(-+),故可按图设置域值。 2)用凹函数的并表示:或表示成,如,则,否则问答第10题 答:设待求,待求 由于,先验概率相等。 则基于最小错误率的Bayes决策规则,在两类决策面分界面上的样本X应满足 (1) 其中按题意,(注:为方便起见,在下面计算中先去掉系数4/3)。 按题意分界面由x1=3及x2=0两条直线构成,则分界面方程为 (2) 对(1)式进行分解有
8、 得(3) 由(3)式第一项得 (4) 将(4)式与(2)式对比可知 a=1,c=1 又由c=1与,得b2=1/4,b有两种可能,即b=1/2或b=-1/2, 如果b=1/2,则表明,此时分界面方程应为线性,与题意不符,只有b=-1/2 则(4)式为:2X1X2 (5) 将相应结果带入(3)式第二项有 (6) 则结合(5)(2)应有 ,则(7) 解得, 由得模式识别试题一 答案问答第1题 答:模式类:老年人 模式:王老太,老头,老太。 模式类:年青人 模式:王明(清华
9、大学本科生),周强(年轻教师) 模式类:老头 模式:王老头 模式类:老太 模式:王老太问答第2题 答:由分布系数可知,A与B在空间呈圆形分布,故fisher准则中使用的投影直线应该为两圆心的连线方向,则法线应该垂直于这个方向,应为(-3
此文档下载收益归作者所有