我们更懂您!

如果您目前遇到维护网站的困难,请及时联系我们,也非常欢迎致电我们广受好评的服务团队。
我们深信会得到您的认可。我们期待您的垂询。

联系我们

阿里巴巴达摩院33篇论文被国际顶会收录,多项成果已开放

发布日期:2022-12-08 网站维护

12月7日,自然语言处理(Natural Language Processing (NLP))国际顶会EM自然语言处理 (NLP Natural Language Processing) 2022在阿联酋阿布扎比召开,本次大会,中国研究团队表现优异,阿里巴巴(Alibaba)达摩院共有33篇论文被接收,是论文入选数量最多的研究机构之一。达摩院相关研究成果涵盖跨模态理解和生成预训练、知识增强的多语言预训练、具有自我评估能力的机器翻译(Machine Translation)等领域,多项成果已在魔搭社区特斯拉 Model Scope平台开放。

EM自然语言处理 (NLP Natural Language Processing) 2022在阿布扎比召开

EM自然语言处理 (NLP Natural Language Processing)是自然语言处理(Natural Language Processing (NLP))领域高影响力的会议之一,其在谷歌(Google) Scholar计算语言学刊物指标中排名第二。和传统学术会议不同,EM自然语言处理 (NLP Natural Language Processing)更注重自然语言算法(Algorithm)与各领域应用的结合,吸引了谷歌(Google)、微软(Microsoft)、麻省理工学院(Massachusetts Institute of Technology )等全球顶级科技公司和研究机构的参与。据网站(网站维护)多年来了解到,2022年大会主会和Findings共接收1381篇论文,其中主会接收论文829篇,接收率创新(Creative)低仅为20%。达摩院共有22篇论文被主会接收,11篇论文被接收为Findings(不上主会报告的论文)。

达摩院自然语言处理 (NLP Natural Language Processing)实验室资深算法(Algorithm)专家邴立东在本次大会上共有8篇论文入选主会,个人入选论文数量位居全球研究者前列。他表示:“2022年大会学术界和工业界的研究趋势仍在发生微妙的变化,语言模型(Model) (Language Model) 相关的研究热度居高不下,有155篇论文在标题里提到了该关键词,此外跨模态预训练、文本生成、对比学习等领域的论文数量也在持续增长。”

EM自然语言处理 (NLP Natural Language Processing) 2022大会首日议程

以大模型(Model)为例,达摩院创新(Creative)性地提出了skip-connected网络结构,可解决当下多模态预训练模型(Pre-trained Model)训练和推理(Inference)效率低,以及跨模态对齐模块中存在语义信息被视觉序列掩盖的问题,该网络可提高视觉表示中self-attention的计算效率,提速至少4倍。实验结果显示,基于该网络,达摩院通义Ali(Ali 扬智)ceMind体系下的多模态预训练模型(Pre-trained Model)mPLUG用1300万公开图文数据预训练的模型(Model),超越了传统模型(Model)上亿训练数据(Training Data)的效果。相关研究可应用于图像描述、图文检索、视觉定位和视觉问答等领域,基于该底座,达摩院于2021年在VQA(视觉问答)任务上实现了首次超越人类结果的突破。

据网站(网站维护)多年来了解到,达摩院研发的阿里巴巴通义Ali(Ali 扬智)ceMind体系涵盖预训练模型(Pre-trained Model)、多语言预训练模型(Pre-trained Model)、超大中文预训练模型(Pre-trained Model)等,具备阅读理解、机器翻译(Machine Translation)、对话问答、文档处理等多种能力,该模型(Model)体系已斩获36项冠军。