支持向量机(SVM)是20世纪90年代由Vapnik等研究者,在统计学习理论体系框架下提出的一种新的通用的学习方法,它在解决小样本、非线性以及高维模式识别等问题中有很强的优势。应用支持向量机解决问题的时候,核函数及其相关参数的选择对结果好坏起着至关重要的作用,直接影响机器学习的分类性能。只有选择合适的核函数及其参数,才能得到具有良好推广能力的SVM分类器。虽然目前关于核函数及其参数的研究在理论和应用方面日趋走向成熟,但还不足以指导其参数选择。核函数参数是影响SVM分类性能的关键因素,但其选择方法目前国际上还没有形成统一的模式,最优SVM参数选择算法只能凭借经验,实验对比,或者大范围的搜寻来进行寻优。在众多的核函数参数选择方法中,网格搜索法是最常用而且比较有效的一种方法。本文主要研究的就是支持向量机核函数参数选择方法。本文主要讨论了支持向量机的核函数及其参数的以下几方面内容:首先,系统和全面的总结了支持向量机基础理论,介绍了VC维理论、结构风险化最小化原则,研究了SVM分类算法,分析了用于解决多类分类问题的策略。其次,分析了影响SVM训练性能、学习性能的几个重要因素。讨论了支持向量机中的常用的核函数参数选择方法,分析了双线性搜索法,模式搜索法,网格搜索法的优缺点,结合SVM核函数参数自身参数空间分布的特点,通过理论上的分析论证和实验比较提出了一种新的核函数参数选择方法—双线性模式搜索法。最后,通过仿真实验对本文所提方法与经典的网格搜索法在学习精度和运行时间两方面进行比较分析得出,利用本文所提方法训练得到的SVM分类机不仅有较高的学习精度而且其学习时间也大大缩短,从而证明本文所提方法的优越性,可行性。