分类:
系列活动
一、 主题: 使用模态相关预训练的文本到代码生成主讲人: 贾颖欣摘要: 大型预训练语言模型通常是将自然语言和程序语言这两种模态映射到相同的嵌入空间中。然而,编程语言关键字(例如“while”)通常具有非常严格定义的语义。因此,从他们的自然语言使用中进行迁移学习可能不一定对他们的代码应用有益,反之亦然。假设一个已经预先训练好的语言模型,在这项工作中,作者研究了如何根据令牌序列所属的模态(自然语言/程序语言...
一、 主题: 多粒度答案的开放域问题解答主讲人: 梁延杰摘要: 事实问题通常可以在不同的粒度级别上得到正确回答。然而,标准问答 (QA) 评估协议并未明确考虑这一点,而是将预测答案与单一粒度级别的参考答案进行比较。在这项工作中,提出了 GRANOLA QA,这是一种新颖的评估设置,其中根据一组多粒度答案的准确性和信息量来评估预测答案。提出了一种简单的方法,用于通过多粒度答案丰富现有数据集,并创建 GRANOLA-EQ,这是 EN...
一、 主题: 多文档问答中的知识图提示主讲人: 梁延杰摘要: 大型语言模型(LLM)的“预训练、提示、预测”范式在开放域问答(OD-QA)方面取得了显着的成功。然而,很少有作品在多文档问答(MD-QA)中探索这种范式,这项任务需要彻底理解文档内容和结构之间的逻辑关联。为了填补这一关键空白,我们提出了一种知识图提示(KGP)方法来制定正确的上下文来提示法学硕士进行MD-QA,该方法由图构建模块和图遍历模块组成。对于图构建...
一、 主题: 元强化学习主讲人: 范禄珂摘要: 元强化学习代理需要从一系列轨迹中推断任务。此外,它需要一个快速的适应策略来调整其策略以适应新的任务,这可以通过使用自注意机制来实现。以此新提出的TrMRL (Transformer for Meta-Reinforcement Learning)是一个使用transformer架构模拟记忆恢复机制的元强化学习代理。它将最近的工作记忆联系起来,通过转换层递归地建立情景记忆。研究表明,自关注计算出一种共识表示,它在...
一、 主题:句子嵌入的简单对比学习 主讲人: 李呈韬摘要: 本文介绍了SimCSE,一个对比学习框架。首先描述了一种无监督方法,该方法采用输入句子并在对比目标中预测自身,仅使用标准dropout作为噪声。这个简单的方法效果出奇地好,与之前的有监督的方法相当。作者发现dropout作为最小的数据增强,删除它会导致表示崩溃。提出了一种监督方法,该方法将来自自然语言推理数据集的注释对结合到对比学习框架中,使用“蕴涵”对作为...