学术报告

学术报告

您当前所在位置: 首页 > 学术报告 > 正文
报告时间 2022年6月27日15:00-17:00 报告地点 腾讯会议:828-877-665
报告人 王健


报告题目:神经网络稀疏容错学习与多目标强凸优化

报告人:王健、教授、中国石油大学(华东)

照片:

邀请人:谢晋、高卫峰

报告时间:2022年6月27日15:00-17:00

报告地点: 腾讯会议:828-877-665

报告人简介:

王健,中国石油大学(华东)教授、博士生导师。现担任“跨媒体大数据”联合实验室(http://cilab.sci.upc.edu.cn/)主任、山东省能源工业大数据发展创新实验室副主任、山东省数学会理事,IEEE高级会员,IEEE Transactions on Neural Networks and Learning Systems和International Journal of Machine Learning and Cybernetics副主编,Neural Computing and Applications和Complex& Intelligent Systems编委。主要从事嵌入式特征选择模型、智能优化理论、大数据建模等方向研究,在神经网络模型设计、分数阶学习理论、大规模稀疏优化及大数据智能学习算法在石油工程等领域中的研究形成了特色和优势,发表学术论文90余篇。获辽宁省自然科学学术成果奖二等奖两项;主持或参与完成中国博士后科学基金面上项目,山东省自然科学基金青年项目、面上项目,教育部高等学校博士学科点专项科研基金、国家自然科学基金青年项目、面上项目,国家自然科学基金重点项目、国家重点研发计划、中石油重大科技合作项目等10余项。入选中国石油大学(华东)青年教师人才建设工程“拔尖人才工程”项目和青岛市“智岛计划”紧缺人才项目。担任IEEE计算智能国际学术会议可解释性数据分析(EDACI)Symposia主席;国际计算智能最新进展会议大会主席。

报告摘要:

近年来,神经网络作为人工智能与机器学习的重要分支,广泛应用于诸如语音识别、图像处理等领域。训练神经网络,优化权重参数,可以使神经网络拥有良好的非线性映射能力,但无约束训练,往往会出现过拟合现象;类似于人类大脑神经元或突触连接失效,神经网络网络训练过程中随机噪音的存在,均易于导致神经网络容错能力与泛化能力的大幅降低,这也是神经网络领域的研究难点。针对这一问题,本报告将在经典神经网络研究基础上,设计稀疏容错网络,在训练过程中确定最优网络结构的同时,针对网络权重加性噪音和乘性噪音两种形式给出收敛性分析。此外,使用进化计算策略解决神经网络稀疏结构优化问题是近期的研究热点,本报告的另外一个主题就是在进化计算中引入强凸优化算子,以达到大规模高维稀疏优化的效果,进而优化神经网络训练结构。

best365网页版登录官网

best365网页版登录官网

上一篇:Hilbert空间上算子的共轭插值

下一篇:Distributionally robust second-order stochastic dominance

关闭

Baidu
sogou