一、 主题:可控的文本生成主讲人:王舰摘要:可控的文本生成是目前文本生成领域的一个研究热点。本周讲解两篇关联性的文章,一篇介绍离散编码形式的变分自编码。另外一篇文章介绍离散编码的变分自编码器在可控文本生成领域的应用,该文章同时兼顾了文本多样性的问题。时间和地点:3月13日9:30-11:00(星期六上午9点30分-11点),软件学院办公楼201会议
一、 主题:Question Answering主讲人:吴佳琪摘要:本次讨论班将介绍自然语言处理中的一个重要子任务---Question Answering。通过本次讨论班的学习,你将知道QA中常用的数据集及其形式,了解并分析QA中的经典模型和常用技巧。时间和地点:12月5日13:30-16:00(星期六下午1点30分-4点),软件学院办公楼201会议
一、 主题:语言表示中的常识与偏见主讲人:刘天元摘要:词向量/预训练语言模型等方法为NLP任务提供了基础的特征表示。本周讲解的两篇文章,一篇主要探讨这些基本表示能否捕获语言中的常识性信息并据此进行推断。另一篇探讨了这些表示又捕获了怎样的偏见,以及如何避免。时间和地点:12月5日9:00-10:30(星期六上午9点-10点30分),软件学院办公楼201会议室二、 主题:文本生成主讲人:王舰摘要:序列到序列模型在当前文本生成...
一、 主题:NLP中的CNN主讲人:夏天宇摘要:本节课介绍CNN在NLP中的应用。首先介绍如何进行卷积和池化操作,然后具体介绍了CNN的一个应用——句子分类,最后介绍如何优化CNN的应用以及结合了RNN和CNN优点的QRNN时间和地点:11月28日13:30-15:00(星期六下午1点30分-3点),软件学院办公楼201会议
一、 主题:一种新的预训练文本编码器——ELECTRA主讲人:杨涛摘要:本次讨论班讨论一种新的叫作ELECTRA的预训练文本编码器。论文提出了一个新的预训练任务——replace token detection,即以判别式模型判定单词是否被修改,解决了以MLM这一生成式任务做预训练所带来的一些问题,如两阶段输入不匹配、计算代价高等。实验证明,ELECTRA以更低的参数量和计算量,获得了在下游任务上比BERT等更好的表现。时间和地点:11月28日9:00...