语义计算2023秋季讨论班——少样本学习,零样本学习,提示学习

一、 主题:少样本学习

主讲人:梁延杰


摘要目前小样本文本摘要研究缺乏一个统一的评价基准。过去的研究一方面集中只关注一类文本的研究,如:新闻摘要或对话摘要,这导致很难评估模型在不同类型文本上的泛化能力;另一方面,过去研究训练所用的样本并不公开。而小样本学习对数据非常敏感,这会造成样本选择误差(Sample Selection Bias)的问题。为解决这两个问题,本文提出了UniSumm,可以利用以往摘要数据进行预训练并通过前缀调整在未见过的小样本文本摘要任务(unseen task)上表现出色的模型和SummZoo,一个包含多样文本摘要任务并能够分析模型稳健性的小样本文本摘要基准数据集。


时间和地点:9月9日9:00-10:00(星期六上午九点-十点)办公楼310会议室

                        腾讯会议 ID:832-9044-3496


二、 主题:零样本学习

主讲人:贾颖欣


摘要本次介绍的两篇工作都是与零样本学习相关的。第一篇工作证明了从LLM中采样的文本往往占据模型对数概率函数的负曲线区域,并利用这一观察结果,定义了一个新的基于曲率的标准,用于判断段落是否由给定的LLM生成。第二篇工作介绍了预训练大语言模型在不同数据领域上表现出不同的能力,并且这种多样性可以通过Socratic Models (SMs)框架来利用。这些模型在不同领域存储着不同形式的常识知识。通过SMs框架,多个预训练模型可以以零样本方式进行组合,通过多模态信息提示来交换信息并捕捉新的多模态能力。


时间和地点:9月9日10:00-11:00(星期六上午十点-十一点)办公楼310会议室

                       腾讯会议 ID:832-9044-3496


三、 主题:提示学习

主讲人:范禄珂


摘要在自然语言任务中,端到端的方法是主导,但是它存在着可解释性和鲁棒性的问题,这同显式地产生中间表示的符号方法形成了对比(逻辑形式、推理路径和程序代码)。相应的,后者对于任务也同样具有输入不够灵活的缺陷。因此,ICLR2023的这篇文章提出了BINDER这一框架,结合了两者的优点,并在测试中取得了优于以往表现的成果。另一篇文章来自于EMNLP2022的RLPROMPT,是对于寻找最优离散提示的新方法的探索。它把寻找最优离散的问题重新表述为一个强化学习的RL问题,通过强化学习的方式来搜索空间,得到最优提示。在这一过程中,作者需要解决黑盒模型带来的问题。实验结果表示,RLPROMPT在文本风格迁移任务和小样本分类任务上都取得了性能上的提升。


时间和地点:9月9日11:00-12:00(星期六上午十点-十二点)办公楼310会议室

                       腾讯会议 ID:832-9044-3496




图文作者:杨磊稳    责任编辑:孙宇清