语义计算2023春季讨论班——大规模预训练语言模型下的文本生成和数据增强

一、 主题:大规模预训练语言模型下的文本生成

主讲人:郑璐阳


摘要:本次介绍的两篇论文都是关于文本生成的。第一篇工作是针对低资源环境下,提出了一个用于长文本摘要生成的语义自分割方法,在不丢失长文本语义的情况下,生成准确的摘要;第二篇工作则是为了解决生成的长文本不连贯的问题,提出了一种新的生成框架,利用自回归的自注意力机制来动态地进行内容规划和单词生成。


时间和地点:3月18日9:00-10:00(星期六上午九点-十点)办公楼201

腾讯会议 ID:690-7644-3039


一、 主题:通过Cross-Encoders进行数据增强改进Bi-Encoders

主讲人:杨磊稳


摘要:关成对句子评分任务在自然语言处理中有着广泛的应用。目前存在Cross-encoders和Bi-encoders两种解决方式,前者对输入使用全注意力机制,效果较好,但速度较慢;后者将每个输入独立地映射到密集向量空间,速度较快,但效果不如前者。本次介绍论文提出将两者结合,能够带来很好的性能提升。。


时间和地点:3月18日10:00-11:00(星期六上午十点-十一点)办公楼201

腾讯会议 ID:690-7644-3039

图文作者:李稳    责任编辑:孙宇清