摘要:在分析现有神经网络集成构造过程的基础上,提出了一种神经网络紧凑集成模式,集成中成员网络的训练和网络组合权重的优化在同一个学习过程中进行,各参数的调整以提高集成泛化性能为目的.与现有神经网络集成模式相比,集成构造过程更加紧凑,它将个体网络生成阶段与结论合成阶段合二为一,并且网络之间的信息交互建立在实时动态的集成结构基础上,保证了成员网络训练与结论合成之间信息传递的始终一致性.为验证该模式的有效性及优越性,采用4种典型的分类数据集对神经网络紧凑集成模式与CNNE、Bagging、Boosting等现有的集成模式在泛化性能上进行了比较,结果表明神经网络集成模式在测试数据集上的错误率降低了8%~16%.
注:因版权方要求,不能公开全文,如需全文,请咨询杂志社