语义计算2022秋季讨论班——可控文本生成、少样本学习
一、 主题:可控文本生成
主讲人:郑璐阳
摘要:本次讨论班分享的两篇论文都是和可控文本生成相关的。第一篇论文是设计了一个有效的多属性可控文本生成框架,其中包含的对比生成器、外部判别器和top-n加权解码都可以有效的提升生成文本的质量;第二篇论文则是提出了一个端到端的知识引导的学术论文评论生成框架,其中知识包含两种不同类型的知识,分别是概念图和引用图,模型借助知识可以生成质量更高的论文评价。
时间和地点:11月27日13:30-14:30(星期日下午一点半-两点半)线上
腾讯会议 ID:690-7644-3039
一、 主题:少样本学习
主讲人:杨磊稳
摘要:尽管大规模的预训练语言模型在处理许多NLP任务方面取得了成功,但他们在只有少样本环境中表现不佳。为了解决这个缺点,可以使用任务增强的自训练,这是一种建立在有效利用未标记数据的两个关键思想基础上的方法。首先,任务增强是一种新技术,它从目标任务未标记文本中合成大量数据用于辅助任务微调。其次是使用自训练,其通过伪标记数据上进一步微调任务增强创建的模型来执行训练。任务增强和自训练以互补的方式,利用特定任务的未标记数据来提高下游性能。
时间和地点:11月27日14:30-15:30(星期日下午两点半-三点半)线上
腾讯会议 ID:690-7644-3039
图文作者:李稳 责任编辑:孙宇清