期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
基于GMM和二分类特征筛选的多级音频分类方法
1
作者 高前勇 戴蓓蒨 许东星 《中国科学技术大学学报》 CAS CSCD 北大核心 2007年第12期1466-1471,共6页
采用同一种特征参数——Mel倒谱系数及其动态参数区分纯语音、带背景语音、乐器音、歌声和环境音.根据该特征参数的特点以及各类音频之间的差异,给出了一种区分性模型训练和特征筛选相结合的多级二分类音频分类方法,即为各级建立GMM(Gau... 采用同一种特征参数——Mel倒谱系数及其动态参数区分纯语音、带背景语音、乐器音、歌声和环境音.根据该特征参数的特点以及各类音频之间的差异,给出了一种区分性模型训练和特征筛选相结合的多级二分类音频分类方法,即为各级建立GMM(Gaussian mixture model)模型的同时挑选出使当前模型区分程度达到最大的特征子集.对长约2 h的音频数据集的测试结果表明,该方法相对于特征筛选前的分类系统,平均误识率下降了约23.5%,且各二分类子系统的特征维数也有明显地减少. 展开更多
关键词 音频分 Mel倒谱系数及其动态参数 区分性模型训练 特征筛选 多级二分类方法
在线阅读 下载PDF
基于浮动阈值分类器组合的多标签分类算法 被引量:9
2
作者 张丹普 付忠良 +1 位作者 王莉莉 李昕 《计算机应用》 CSCD 北大核心 2015年第1期147-151,共5页
针对目标可以同时属于多个类别的多标签分类问题,提出了一种基于浮动阈值分类器组合的多标签分类算法。首先,分析探讨了基于浮动阈值分类器的Ada Boost算法(Ada Boost.FT)的原理及错误率估计,证明了该算法能克服固定分段阈值分类器对分... 针对目标可以同时属于多个类别的多标签分类问题,提出了一种基于浮动阈值分类器组合的多标签分类算法。首先,分析探讨了基于浮动阈值分类器的Ada Boost算法(Ada Boost.FT)的原理及错误率估计,证明了该算法能克服固定分段阈值分类器对分类边界附近点分类不稳定的缺点从而提高分类准确率;然后,采用二分类(BR)方法将该单标签学习算法应用于多标签分类问题,得到基于浮动阈值分类器组合的多标签分类方法,即多标签Ada Boost.FT。实验结果表明,所提算法的平均分类精度在Emotions数据集上比Ada Boost.MH、ML-k NN、Rank SVM这3种算法分别提高约4%、8%、11%;在Scene、Yeast数据集上仅比Rank SVM低约3%、1%。由实验分析可知,在不同类别标记之间基本没有关联关系或标签数目较少的数据集上,该算法均能得到较好的分类效果。 展开更多
关键词 连续ADABOOST 浮动阈值 极大似然原理 多标签分 集成学习 二分类方法
在线阅读 下载PDF
整数规划的新算法 被引量:1
3
作者 李肯立 李庆华 《小型微型计算机系统》 CSCD 北大核心 2004年第7期1298-1302,共5页
整数规划是 NP困难的经典问题之一 ,将传统的二分搜索方法推广应用到整数规划的解空间中 ,提出一种求解整数规划的新算法 .当问题变量数固定时 ,算法的时间复杂性为 O(L log L ) ,其中 L 为问题实例的输入规模 .理论分析和实验结果表明 ... 整数规划是 NP困难的经典问题之一 ,将传统的二分搜索方法推广应用到整数规划的解空间中 ,提出一种求解整数规划的新算法 .当问题变量数固定时 ,算法的时间复杂性为 O(L log L ) ,其中 L 为问题实例的输入规模 .理论分析和实验结果表明 :新算法不仅初步解决了目前求解系数呈指数增长的整数规划问题时存在的实质性困难 ,可直接用于此类大规模问题的求解 .同时由于其特别适合并行处理的算法结构 。 展开更多
关键词 整数规划 算法复杂性 二分方法 NP-HARD
在线阅读 下载PDF
Least squares weighted twin support vector machines with local information 被引量:1
4
作者 花小朋 徐森 李先锋 《Journal of Central South University》 SCIE EI CAS CSCD 2015年第7期2638-2645,共8页
A least squares version of the recently proposed weighted twin support vector machine with local information(WLTSVM) for binary classification is formulated. This formulation leads to an extremely simple and fast algo... A least squares version of the recently proposed weighted twin support vector machine with local information(WLTSVM) for binary classification is formulated. This formulation leads to an extremely simple and fast algorithm, called least squares weighted twin support vector machine with local information(LSWLTSVM), for generating binary classifiers based on two non-parallel hyperplanes. Two modified primal problems of WLTSVM are attempted to solve, instead of two dual problems usually solved. The solution of the two modified problems reduces to solving just two systems of linear equations as opposed to solving two quadratic programming problems along with two systems of linear equations in WLTSVM. Moreover, two extra modifications were proposed in LSWLTSVM to improve the generalization capability. One is that a hot kernel function, not the simple-minded definition in WLTSVM, is used to define the weight matrix of adjacency graph, which ensures that the underlying similarity information between any pair of data points in the same class can be fully reflected. The other is that the weight for each point in the contrary class is considered in constructing equality constraints, which makes LSWLTSVM less sensitive to noise points than WLTSVM. Experimental results indicate that LSWLTSVM has comparable classification accuracy to that of WLTSVM but with remarkably less computational time. 展开更多
关键词 least squares similarity information hot kernel function noise points
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部