欢迎来到继续教育培训网院校库!

继续教育培训网首页

东北大学继续教育培训

211 985
咨询电话:
400-0815-589
当前位置:继续教育培训网> 高校继续教育培训> 东北大学> 机构新闻>
培训动态
学校新闻
时政要闻
头条新闻
服务热线:
400-0815-589

在线获取继续教育培训方案

  • 培训主题:
  • 参训单位:
  • 参训人数:
  • 联系人:
  • 联系电话:
  • 验证码:
  • 备注:

新闻中心THE NEWS CENTER

柴天佑院士成果被机器学习顶级会议ICML2021LongPresentation录用

发布时间:2021-07-20 10:12:21    浏览次数:360    来源:东北大学 若有侵权请联系400-0815-589删除

日前,第38届国际机器学习大会(International Conference on Machine Learning,ICML 2021)于7月18—24日在线上举行。作为机器学习领域国际顶级会议,ICML对论文质量有较高要求,本届ICML会议共收到有效投稿5513篇,共计1184篇被录用,录用率仅为21.47%,被录用的稿件反映了机器学习领域国际最前沿的研究水平。其中166篇以Long Presentation被录用,录用率仅为3%,代表了对作者工作的高度肯定。

东北大学柴天佑院士、杨涛教授(文章通讯作者)与瑞典皇家理工学院Karl H. Johansson院士、易新蕾博士(文章第一作者),新加坡南洋理工大学谢立华院士,同济大学特聘研究员李修贤合作完成的最新研究成果以Long Presentation被ICML录用,并讲于7月21日进行线上报告。据悉,这是我校首篇在机器学习顶级会议ICML上录用的论文。

论文题目为“Regret and Cumulative Constraint Violation Analysis for Online Convex Optimization with Long Term Constraints”。该论文所研究的在线凸优化问题可以理解为学习者与对手之间的重复博弈,是一种很有前景的研究序列任务的机器学习框架。该论文主要提出了两种求解具有长期约束的在线凸优化问题的算法,并且在更严格的约束违反累积度量下,分别分析了算法的理论效果。具体来说,该论文分析了第一种算法在损失函数为凸和强凸时的静态Regret函数以及约束违反累积的上界。与现有的结果相比,第一种算法可以取得更小的约束违反累积,从而可以在更大的范围内使用。论文中提出的第二种算法取得了最优的Regret函数上界以及小于现有结果的约束违反累积,两种算法的提出很大程度上推进了机器学习领域在线优化方向的发展。

今年,国内有来自东北大学、清华大学北京大学上海交通大学中国科学技术大学浙江大学武汉大学和香港大学等高校,以及华为、腾讯、阿里等企业的论文被录用,但仅是美国的1/5,也部分说明了我国在机器学习领域确实还有较大空间需要提升。我校此次工作的录用,意味着国际学术界对学校研究成果的认可。通过这篇文章,一方面,我们可以向国际同行展示东北大学流程工业综合自动化国家重点实验室师生在人工智能机器学习领域的研究能力和成果,扩大学校的学术影响力,另一方面还能促进实验室与该领域顶尖学者的交流以及对该领域最新研究进展的了解。

分享到微信朋友圈 ×
打开微信,点击底部的“发现”,
使用“扫一扫”即可将网页分享至朋友圈。
【继续教育培训网声明】网站文章及图片均来源于学校官网或互联网,若有侵权请联系400-0815-589删除。

咨询热线
400-0815-589