魏明选题报告.doc

魏明选题报告.doc

ID:61489231

大小:49.50 KB

页数:9页

时间:2021-02-05

魏明选题报告.doc_第1页
魏明选题报告.doc_第2页
魏明选题报告.doc_第3页
魏明选题报告.doc_第4页
魏明选题报告.doc_第5页
资源描述:

《魏明选题报告.doc》由会员上传分享,免费在线阅读,更多相关内容在应用文档-天天文库

1、目录1文献综述11.1基因微阵列数据11.1.1基因微阵列数据特点11.1.2基因微阵列数据特征基因选择11.2神经网络学习算法理论21.2.1传统神经网络学习算法21.2.2极限学习机理论的提出32课题背景及开展研究的意义42.1课题背景42.2开展研究的意义43研究内容、预期目标及研究方法53.1研究内容53.2预期目标53.3研究方法54进度安排6参考文献71文献综述1.1基因微阵列数据理论1.1.1基因微阵列数据特点基因芯片技术是近年来分子生物学及医学诊断技术的重要进展,该技术是通过把巨大数量的寡核苷酸,肤核苷酸等固定在一块面积很小的硅片、

2、玻片或尼龙膜上而构成基因芯片。该技术同时将大量的探针固定于支持物上,因此可以一次性对大量序列进行检测和基因分析,得到高维的基因微阵列数据即基因表达数据。DNA芯片的高通量使一次实验可获得超高维基因空间的一个样本,其维数通常达到几千维甚至上万维,并且随着基因芯片技术的进一步发展和芯片集成度的进一步提高,这个空间的维数还将进一步提高。同时每个病人的DNA基因表达数据只是这个高维空间中的一个样本,我们无法也不可能采集到多于空间维数十倍以上的样本数,这就造成了严重的维数发难现象[1]。基因选择作为超高维特征空间中的特征选择问题,相对通常特征选择具有如下特点

3、:首先,空间维数比空间中的样本数要大得多,而不像通常的特征选择问题,空间维数仅有几十,而空间中的样本数却有几百或几千;其次,特征选择是从大量特征中选择出几个或几十个特征基因,而不像通常的特征选择是从几十个特征中选出一部分(如从18个中选出12个);再次,由于疾病的误诊将带来沉重的代价,因此要求选出这样的基因或基因子集,使数据在这样的基因子集上可分性最强,且实现数据分类的分类器的推广能力最强。这些特点给基因选择提出了新的挑战。1.1.2基因微阵列数据特征基因选择到目前为止,研究者们已经研究了很多基因选择方法,其中大多属于过滤算法。排列法(rankin

4、gmethod)是被广为使用的最简单的方法,这类方法计算简单,具有线性时间复杂度[2]。但是排列法的最大缺陷是:简单地假设各个基因是互相独立的,没有考虑基因之间的相互作用。子集评估方法(subsetevaluation)评估基因与类之间的相关性,同时也评估基因之间的相关性,并将这两种评估函数组合成一个评估函数,然后搜索基因空间,选择能使得该函数最优化的基因子集[3]。另外可以根据基因之间相关性的强弱,应用聚类算法将相关性强的基因聚成簇,然后从各簇中选择一到多个与类标号紧密相关的基因代表该簇,例如王明怡等人采用k最近邻原则对基因进行聚类[4]。支持向

5、量机(SVM—SupportVectorMachine)是由Vapnik于1998年(到底是哪年,对应的参考文献放在本句的后面)提出的一种使结构风险最小的两类问题模式分类学习算法[],该算法通过核函数的选择可实现线性和非线性分类,对于线性可分问题,该算法可以获得margin最大的决策边界,从而所学习出的分类器对己有的学习样本具有最好的推广能力。由于支持向量机能够提供属性重要性(或相关性)度量,在分类的同时进行属性选择,因此支持向量机也被用于基因选择,借助支持向量机递归地删除分类模型中关联权重绝对值最小的基因[5]。其基本思想是:先根据所有基因建立一

6、个支持向量机模型,根据基因在支持向量机模型中的贡献大小对基因进行排序,然后选择一个贡献最大的基因子集,根据所选择的基因子集再次建立支持向量机模型。就这样“分类一排序一选择一分类”这个过程递归执行,直到发现一个相对“最优”的基因子集。1.2神经网络学习算法理论1.2.1传统神经网络学习算法由Rumelhartt和McClelland提出的BP神经网络模型是目前应用最广泛的模型之一[参考文献]。BP训练方法是通过反向误差传播原理不断调整网络权值使得实际输出与期望输出之间的误差平方和达到最小或小于某个阈值.,在许多领域中得到了很好的应用。但它有很多局限性

7、,对复杂的问题需要很长的时间训练网络,而且不一定能得到最佳的网络参数。传统的误差反向传播方法(BackPropagation,BP)主要基于梯度下降的思想,,需要多次迭代,网络的所有参数都需要在训练过程中迭代确定.,因此算法的计算量和搜索空间很大[6]。近年来,国内外许多专家对网络算法进行深入研究,提出了许多改进的方法,例如:LinSB等人提出在训练中自适应地改变学习率,使其该大时增大,该小时减小。使用动态学习率,从而加快算法的收敛速度[7];王晓敏等提出了一种基于改进的差分进化算法,利用差分进化算法的全局寻优能力,能够快速地得到BP神经网络的权值

8、,提高算法的速度[8];董国君等提出了一种基于随机退火机制的竞争层神经网络学习算法,该算法将竞争层神经网络的串行迭代模式改

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。