欢迎来到继续教育培训网院校库!

继续教育培训网首页

中国人民大学继续教育培训

211 985 双一流
咨询电话:
400-0815-589
当前位置:继续教育培训网> 高校继续教育培训> 中国人民大学> 机构新闻>
培训动态
学校新闻
时政要闻
头条新闻
服务热线:
400-0815-589

在线获取继续教育培训方案

  • 培训主题:
  • 参训单位:
  • 参训人数:
  • 联系人:
  • 联系电话:
  • 验证码:
  • 备注:

新闻中心THE NEWS CENTER

信息学院张静副教授团队论文被国际顶级会议WWW录用

发布时间:2022-03-28 10:58:19    浏览次数:279    来源:中国人民大学官网 若有侵权请联系400-0815-589删除

信息学院副教授张静团队论文ClusterSCL: Cluster-Aware Supervised Contrastive Learning on Graphs近日被数据交叉领域顶级会议WWW录用。WWW(The International Conference of World Wide Web)会议是由国际万维网会议委员会主办的顶级国际学术会议(中国计算机学会推荐 A 类会议),每年举办一届。大会在互联网标准制定、互联网应用技术、互联网内容分析等研究领域享有盛名,在全球范围内为推动互联网技术的发展起到了重要作用。

论文题目为ClusterSCL: Cluster-Aware Supervised Contrastive Learning on Graphs,第一作者是信息学院2018级计算机应用技术专业直博生王艳玲,目前主要研究方向是图表示学习及图自监督表示学习;导师为张静,目前主要研究方向是知识图谱挖掘与推理等方面。

本文关注到节点分类任务中广泛存在的类内方差和类间相似问题,并提出一种监督学习方法,更好地在该类型数据上训练节点分类模型,其思想可被应用到其他领域的分类问题中。

受启发于快速发展的对比学习技术,本文拓展CV领域的Supervised Contrastive Learning损失函数(SupCon)来训练节点分类模型。SupCon的核心思想是:通过对比损失拉近同类别样本,推远不同类别的样本。我们将数据中存在的类内方差和类间相似视为数据固有性质的一种体现,在做监督对比减小同类样本间距离的同时,希望能保持数据固有的性质。我们通过聚类建模数据。聚类依据样本特征无关于类别标签,因此可以反映数据的固有性质。相比CE和SupCon,ClusterSCL取得了更优的节点分类效果。在不同size的标注训练集上,ClusterSCL均能取得更优的表现。

分享到微信朋友圈 ×
打开微信,点击底部的“发现”,
使用“扫一扫”即可将网页分享至朋友圈。
【继续教育培训网声明】网站文章及图片均来源于学校官网或互联网,若有侵权请联系400-0815-589删除。

咨询热线
400-0815-589