欢迎来到继续教育培训网院校库!

继续教育培训网首页

中国人民大学继续教育培训

211 985 双一流
咨询电话:
400-0815-589
当前位置:继续教育培训网> 高校继续教育培训> 中国人民大学> 机构新闻>
培训动态
学校新闻
时政要闻
头条新闻
服务热线:
400-0815-589

在线获取继续教育培训方案

  • 培训主题:
  • 参训单位:
  • 参训人数:
  • 联系人:
  • 联系电话:
  • 验证码:
  • 备注:

新闻中心THE NEWS CENTER

高瓴人工智能学院“高屋建瓴AI公开课”第15期开讲

发布时间:2022-04-02 09:46:39    浏览次数:273    来源:中国人民大学官网 若有侵权请联系400-0815-589删除

3月18日,百度AIG计算机视觉首席科学家、博士王井东受中国人民大学高瓴人工智能学院准聘助理教授胡迪邀请做客“高屋建瓴AI公开课”。王井东以“Context Autoencoder for Scalable Self-Supervised Representation Pretraining”为题,围绕图像表征自监督学习(Self-supervised Learning)的动机、发展过程,以及基于MIM方法和基于contrastive learning方法之间的对比,结合最新研究进展做了分享。

王井东在讲座中介绍了团队最近研究内容、应用场景与未来可能的发展发展,并围绕“图像表征的自监督预训练”主题展开讲授。王井东回顾了视觉领域的自监督表征学习。他表示,基于对比学习的自监督表征学习希望来自于同一图像两个裁剪的互信息尽可能大,即有较高程度的对齐。王井东对基于对比学习的预训练模型进行总结,他表示,尽管这些方法定义了不同的训练框架,但由于是对同一张图像做裁剪并进行对比学习,模型往往会关注到图像的中心,这一点在文章的对比实验和可视化中也可以进一步体现。

王井东还介绍了基于图像掩码的预训练,相比较于对比学习的自监督表征学习方式,基于图像掩码的训练可以更好地关注到图像的各个分块的信息,从而获得表征能力更强的空间。 王井东重点就团队近期工作《Context Autoencoder for Self-Supervised Representation Learning》作了介绍,他表示,CAE将图像表征预训练模型对 “表征学习” 和 “图像重构” 的两个功能解耦,旨在进行预训练时,实现编码器只负责表征学习,解码器只负责图像的重构的目的,从而让编码器可以更好地对图像表征做建模。

王井东通过对CAE的可视化分析和实验结果展示,证明了CAE在图像表征建模上的优越性。

在问答环节,围绕能否运用自然语言处理中的有关范式更好地利用图像预训练模型这一问题,王井东表示,预训练本身是希望得到强大的、泛化能力强的编码器,研究者可以从训练方式的角度入手,直接在训练中建模更好的编码器。现场师生围绕讲座主题展开了深入交流。

分享到微信朋友圈 ×
打开微信,点击底部的“发现”,
使用“扫一扫”即可将网页分享至朋友圈。
【继续教育培训网声明】网站文章及图片均来源于学校官网或互联网,若有侵权请联系400-0815-589删除。

咨询热线
400-0815-589