机器学习试卷——中南大学.doc

机器学习试卷——中南大学.doc

ID:57301164

大小:72.51 KB

页数:4页

时间:2020-08-10

机器学习试卷——中南大学.doc_第1页
机器学习试卷——中南大学.doc_第2页
机器学习试卷——中南大学.doc_第3页
机器学习试卷——中南大学.doc_第4页
资源描述:

《机器学习试卷——中南大学.doc》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、一、判断题(1)极大似然估计是无偏估计且在所有的无偏估计中方差最小,所以极大似然估计的风险最小。(2)回归函数A和B,如果A比B更简单,则A几乎一定会比B在测试集上表现更好。(3)全局线性回归需要利用全部样本点来预测新输入的对应输出值,而局部线性回归只需利用查询点附近的样本来预测输出值。所以全局线性回归比局部线性回归计算代价更高。(4)Boosting的一个优点是不会过拟合。(5)在回归分析中,最佳子集选择可以做特征选择,当特征数目较多时计算量大;岭回归和Lasso模型计算量小,且Lasso也可以实现特征选择。(6)梯度下降有时

2、会陷于局部极小值,但EM算法不会。(7)支持向量机是判别模型。T(8)ICA方法对于高斯分布的数据也有效。F(9)回归问题属于非监督学习的一种方法。F(10)聚类算法中不需要给出标签y。T二、考虑一个二分类器问题(Y为1或0),每个训练样本X有两个特征X1、X2(0或1)。给出P(Y=0)=P(Y=1)=0.5,条件概率如下表:分类器预测的结果错误的概率为期望错误率,Y是样本类别的实际值,Y'(X1,X2)为样本类别的预测值,那么期望错误率为:(1)给出X1,X2的所有可能值,使用贝叶斯分类器预测结果,填写下表:X1X2P(X1

3、,X2,Y=0)P(X1,X2,Y=1)Y’(X1,X2)00011011(2)计算给定特征(X1,X2)预测Y的期望错误率,假设贝叶斯分类器从无限的训练样本中学习所得。(3)下面哪个有更小的期望错误率?a、仅仅给出X1,采用贝叶斯分类器预测Y。b、仅仅给出X2,采用贝叶斯分类器预测Y。(4)给出一个新的特征X3,X3的与X2保持完全相同,现在计算给定(X1,X2,X3)采用贝叶斯分类器预测Y的期望错误率,假设分类器从无限的训练数据中学习所得。(5)使用贝叶斯分类器会产生什么问题,为什么?三、交叉验证1、4.给定如下数据集,其中

4、为输入变量,为输出变量。假设考虑采用k-NN算法对对应的进行预测,其中距离度量采用不加权的欧氏距离。(12分)(1)算法1-NN的训练误差的是多少?(用分类错误的样本数目表示即可,下同)(2)算法3-NN的训练误差是多少?(3)算法1-NN的LOOCV(留一交叉验证)估计误差是多少?(4)算法3-NN的LOOCV(留一交叉验证)估计误差是多少?四、用最大似然估计的方法估计高斯分布的均值和方差,并指出其局限性。五、随着信息化的发展,大数据的时代已经到来。海量的文本、图像、视频数据存在于互联网上,请结合自己的科研背景和兴趣,探讨机器

5、学习方法如何在大数据分析、处理中应用。(20分)

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。