全国版 安徽省 北京市 重庆市 福建省 贵州省 广东省 广西省 甘肃省 河北省 湖南省 河南省 海南省 黑龙江 湖北省 吉林省
江苏省 江西省 辽宁省 内蒙古 宁夏区 青海省 山西省 山东省 四川省 上海市 陕西省 天津市 新疆区 西藏区 云南省 浙江省
 评论 频道

LTP 4.0!单模型完成6项自然语言处理任务

报纸网 |发布: 2021-3-10 18:16|点击: 195|来自: 互联网

LTP 4.0!单模型完成6项自然语言处理任务

语言技术平台(Language Technology Platform,LTP)是哈工大社会计算与信息检索研究中心(HIT-SCIR)历时多年研发的一整套高效、高精度的中文自然语言处理开源基础技术平台。该平台集词法分析(分词、词性标注、命名实体识别)、句法分析(依存句法分析)和语义分析(语义角色标注、语义依存分析)等多项自然语言处理技术于一体。

其中句法分析、语义分析等多项关键技术多次在CoNLL国际评测中获得了第1名。此外,平台还荣获了2010年中国中文信息学会科学技术一等奖、2016年黑龙江省科技进步一等奖。国内外众多研究单位和知名企业通过签署协议以及收费授权的方式使用该平台。

哈工大SCIR本科生冯云龙等同学在车万翔教授指导下,于近日对LTP进行了新一轮的全面升级,并推出了LTP 4.0版本。此次升级的主要改进为:

  • 基于多任务学习框架进行统一学习,使得全部六项任务可以共享语义信息,达到了知识迁移的效果。既有效提升了系统的运行效率,又极大缩小了模型的占用空间

  • 基于预训练模型进行统一的表示 ,有效提升了各项任务的准确率

  • 基于教师退火模型蒸馏出单一的多任务模型,进一步提高了系统的准确率

  • 基于PyTorch框架开发,提供了原生的Python调用接口,通过pip包管理系统一键安装,极大提高了系统的易用性

下表列出了新旧版LTP在精度、效率和模型大小方面的对比:

LTP 4.0!单模型完成6项自然语言处理任务

为了模型的小巧易用,本次发布的版本基于哈工大讯飞联合实验室发布的中文ELECTRA Small预训练模型。后续将陆续发布基于不同预训练模型的版本,从而为用户提供更多准确率和效率平衡点的选择。

测试环境如下:

  • Python 3.7

  • LTP 4.0 Batch Size = 1

  • CentOS 3.10.0-1062.9.1.el7.x86_64

  • Intel(R) Xeon(R) CPU E5-2640 v4 @ 2.40GHz

备注:速度数据在人民日报命名实体测试数据上获得,速度计算方式均为所有任务顺序执行的结果。另外,语义角色标注与语义依存新旧版采用的语料不相同,因此无法直接比较(新版语义依存使用SemEval 2016语料,语义角色标注使用CTB语料)。

欢迎访问 http://ltp.ai/ 体验!

招 聘

AI 科技评论希望能够招聘 科技编辑/记者一名

办公地点:北京

职务:以跟踪学术热点、人物专访为主

工作内容:

1、关注学术领域热点事件,并及时跟踪报道;

2、采访人工智能领域学者或研发人员;

3、参加各种人工智能学术会议,并做会议内容报道。

要求:

1、热爱人工智能学术研究内容,擅长与学者或企业工程人员打交道;

2、有一定的理工科背景,对人工智能技术有所了解者更佳;

3、英语能力强(工作内容涉及大量英文资料);

4、学习能力强,对人工智能前沿技术有一定的了解,并能够逐渐形成自己的观点。

感兴趣者,可将简历发送到邮箱:jiangbaoshang@yanxishe.com

 

 

分享到:
(更多内容请继续关注 查报纸网 www.cbzw.com.cn)

推荐阅读
CopyRight 2012-2021 查报纸网 版权所有
关于我们 | 网站公告 | 联系方式 | 广告服务 | 会员积分 | 网站留言 | 友情链接 | 服务条款 | 版权声明 |