12月23日上午,语义计算实验室举行了年度总结会暨博士毕业生经验分享会。在年度总结会议上,实验室负责人孙宇清教授对2023年度的工作进行了全面回顾,内容涉及项目进展、科研成果以及人才培养,并就2024年发展目标分别从个体目标和群体目标两个角度进行规划和展望。在博士毕业生经验交流环节中,刘天元同学分享了科研和学习经历,特别是在文献阅读、模型设计、实验编码等方面的独到见解和心得,以及在科研过程中与导师积极沟通...
一、 主题: 元强化学习主讲人: 范禄珂摘要: 元强化学习代理需要从一系列轨迹中推断任务。此外,它需要一个快速的适应策略来调整其策略以适应新的任务,这可以通过使用自注意机制来实现。以此新提出的TrMRL (Transformer for Meta-Reinforcement Learning)是一个使用transformer架构模拟记忆恢复机制的元强化学习代理。它将最近的工作记忆联系起来,通过转换层递归地建立情景记忆。研究表明,自关注计算出一种共识表示,它在...
一、 主题:句子嵌入的简单对比学习 主讲人: 李呈韬摘要: 本文介绍了SimCSE,一个对比学习框架。首先描述了一种无监督方法,该方法采用输入句子并在对比目标中预测自身,仅使用标准dropout作为噪声。这个简单的方法效果出奇地好,与之前的有监督的方法相当。作者发现dropout作为最小的数据增强,删除它会导致表示崩溃。提出了一种监督方法,该方法将来自自然语言推理数据集的注释对结合到对比学习框架中,使用“蕴涵”对作为...
一、 主题: 基于预训练模型的少样本命名实体识别主讲人: 李成摘要: 少样本命名实体识别的目标是识别具有有限标记实例的命名实体。以往的工作主要集中在优化传统的标记分类框架,而忽视了基于 NER 数据特征的信息探索。针对这一问题,本次分享基于联合任务特定预训练(MSDP)的多任务语义分解框架。示范性对比学习的启示,本文主要介绍了两个新颖的预训练任务: 基于演示的掩蔽语言建模(MLM)和类对比鉴别。这些任务有效地整合了...
一、 主题: 模式探索训练主讲人: 杨磊稳摘要:通过提供具有自然语言“任务描述”的预训练语言模型,可以以完全无监督的方式解决一些NLP任务,虽然这种方法的表现不如监督方法,本次介绍论文将两种想法可以结合起来:模式探索训练(PET),这是一种半监督训练程序,将输入示例重新表述为完形填空风格的短语,以帮助语言模型理解给定的任务。时间和地点:11月4日9:00-10:00(星期六上午九点-十点)办公楼310会议室 ...