阿里达摩院包揽AI领域六大权威榜单冠军:用人类的学习方式超越人类
时间: 2020-08-26来源:博客园
前景提要
  让 AI 模仿人类的学习方式,结果会怎样?
  8 月 26 日,阿里达摩院语言技术实验室取得一系列突破,斩获自然语言处理(NLP)领域 6 大权威技术榜单冠军。据介绍,参与竞赛的 6 项自研 AI 技术均采用模仿人类的学习模式,全方位提升了机器的语言理解能力,部分能力甚至已超越人类。目前,这些技术均已大规模应用于阅读理解、机器翻译、人机交互等场景。
  据悉,过去几年,AI 在图像识别、语音识别等方面已逐步超越人类水平,但在复杂文本语义的理解上,AI 与人类尚有差距,其主要原因就是传统 AI 学习文本知识效率较低。
  为此,业界提出了一种模仿人类的学习思路,即先让 AI 在大规模的网页和书籍文字中进行训练,学习基本的词法、语法和语义知识,然后再在固定领域内的文本上进行训练,学习领域专有知识。
  这一思想就是预训练语言模型的核心创新。自 Google 提出模仿人类注意力机制的 BERT 模型以来,预训练语言模型已成为 NLP 领域的热点研究方向。
  达摩院早在 2018 年就开始布局通用的预训练语言模型,并逐渐将该思路拓展到了多语言、多模态、结构化和篇章文本理解和文本生成领域,如今已建立一套系统化的深度语言模型体系,其自研通用语言模型 StructBERT、多语言模型 VECO、多模态语言模型 StructVBERT、生成式语言模型 PALM 等 6 大自研模型分别刷新了世界纪录。

  达摩院自研模型位居 GLUE 榜单第一名
  其中,StructBERT 能让机器更好地掌握人类语法,使机器在面对语序错乱或不符合语法习惯的词句时,仍能准确理解并给出正确的表达和回应,大大提高机器对词语、句子以及语言整体的理解力。该模型以平均分 90.6 分在自然语言处理领域权威数据集 GLUE Benchmark 中位居第一,显著超越人类水平(87.1 分)。
  达摩院语言技术实验室团队表示:“实验室的目标是让 AI 掌握人类知识的基础技术,预训练语言模型的诞生使得 AI 像人一样学习新知识成为可能,未来达摩院会全面对外开放这些技术,让特定领域的 AI 变得更加智能。”
  过去两年,阿里获得了 30 多项 NLP 领域顶级赛事世界冠军,有 100 多篇相关顶会论文; 阿里自然语言技术已在金融、新零售、通讯、互联网、医疗、电力、客服等领域服务超十亿用户和数万企业客户。

科技资讯:

科技学院:

科技百科:

科技书籍:

网站大全:

软件大全:

热门排行