语义计算2024春季讨论班——可控文本生成、评估指令调优语言模型的零样本鲁棒性


一、 主题: 可控文本生成

主讲人: 韩雨辰


摘要 第一篇工作提出了一个新的框架-定向刺激提示。该框架在提示符中引入了一个名为“定向刺激”的新组件,以提供对大语言模型的细微的、特定实例的指导和控制。使用一个相对较小且可调的LM(例如,T5)作为策略模型,为每个输入查询生成定向刺激提示。这种方法使我们能够通过优化小的可调策略模型来避免对黑盒大语言模型的直接优化。第二篇工作提出了一种可拔插的可控文本生成方法,该方法使用动态属性图来识别与目标属性相同或相反的关键词。通过调节这些关键字的出现,可以精确地控制文本属性。


时间和地点:5119:00-10:00

                       腾讯会议 ID:784-1775-2497


二、 主题:评估指令调优语言模型的零样本鲁棒性

主讲人:齐书成


摘要 最近,指令微调已经成为提高大型语言模型(LLMs)在新任务上的零样本能力的有效方法。这项技术在提高中等规模的LLM的表现上体现出特别的优势,有时甚至能与更大型的模型变体竞争。在这篇论文中提出了两个问题:(1)指令调优模型对特定的指令短语有多敏感?(2)如何使它们对这种自然语言变化更加鲁棒?为了回答第一个问题,作者收集了319条由NLP从业者为超过80个广泛使用的基准测试中的独特任务手工编写的英文指令,并评估这些指令与指令微调期间观察到的指令措辞相比的表现方差和平均性能。作者发现使用新颖的(未观察到的)但适当的指令短语会不断降低模型性能。此外,这种自然指令在下游性能上产生了广泛的方差,尽管它们在语义上是等价的。换句话说,指令调优模型对指令重组不是特别健壮。作者提出了一种简单的方法来缓解这个问题,通过引入“软提示”嵌入参数,并优化这些参数以最大化语义等价指令的表示之间的相似性。结果表明,该方法能持续提高指令优化模型的鲁棒性。

时间和地点:5月11日10:00-11:00

                    腾讯会议 ID:784-1775-2497




图文作者:杨磊稳    责任编辑:孙宇清