面向中文插入删除类语法纠错的预训练模型(Pretraining Chinese BERT for Detecting Word Insertion and Deletion Errors)
时间: 2022-06-02
发布者:
文章来源: 博彩平台
审核人:
浏览次数: 1485
报告题目:面向中文插入删除类语法纠错的预训练模型(Pretraining Chinese BERT for Detecting Word Insertion and Deletion Errors)
时间:2022年6月7日(周二下午)14:00-15:30
地点:腾讯会议 238-243-902
报告摘要:
文本纠错(Grammatical Error Correction, GEC)是自然语言处理领域的基础问题,也是现代写作助手的核心功能。中文语法错误的主要类型包括替换、插入、删除,目前预训练模型在替换类错误中取得了不错的进展,但已有的方法难以解决插入和删除类型的语法纠错。本次报告将介绍腾讯AI Lab 在中文纠错上的最新进展,具体介绍面向中文插入和删除类错误的预训练模型。
报告人介绍:
唐都钰博士是腾讯AI Lab自然语言处理组专家研究员,入职腾讯前任职微软亚洲研究院主管研究员。研究方向涉及自然语言处理、代码智能、多模态等方向,发表会议及期刊论文50余篇,根据谷歌学术统计,论文引用超过 9,000次。多次担任自然语言处理顶级会议 EMNLP 和 ACL 领域主席,并在 EMNLP-2020 上作关于机器推理的大会报告。
周聪,中南大学博彩平台 硕士,研究方向包括自然语言处理、代码摘要等,发表CCF B类期刊和C类会议论文各一篇,目前在腾讯AI Lab工作,主要研究方向为文本纠错。