分类: 系列活动

语义计算2023秋季讨论班——句子嵌入的简单对比学习、多样...

一、 主题:句子嵌入的简单对比学习 主讲人: 李呈韬摘要: 本文介绍了SimCSE,一个对比学习框架。首先描述了一种无监督方法,该方法采用输入句子并在对比目标中预测自身,仅使用标准dropout作为噪声。这个简单的方法效果出奇地好,与之前的有监督的方法相当。作者发现dropout作为最小的数据增强,删除它会导致表示崩溃。提出了一种监督方法,该方法将来自自然语言推理数据集的注释对结合到对比学习框架中,使用“蕴涵”对作为...

语义计算2023秋季讨论班——基于预训练模型的少样本命名实...

一、 主题: 基于预训练模型的少样本命名实体识别主讲人: 李成摘要: 少样本命名实体识别的目标是识别具有有限标记实例的命名实体。以往的工作主要集中在优化传统的标记分类框架,而忽视了基于 NER 数据特征的信息探索。针对这一问题,本次分享基于联合任务特定预训练(MSDP)的多任务语义分解框架。示范性对比学习的启示,本文主要介绍了两个新颖的预训练任务: 基于演示的掩蔽语言建模(MLM)和类对比鉴别。这些任务有效地整合了...

语义计算2023秋季讨论班——模式探索训练,通过稳健的人类...

一、 主题: 模式探索训练主讲人: 杨磊稳摘要:通过提供具有自然语言“任务描述”的预训练语言模型,可以以完全无监督的方式解决一些NLP任务,虽然这种方法的表现不如监督方法,本次介绍论文将两种想法可以结合起来:模式探索训练(PET),这是一种半监督训练程序,将输入示例重新表述为完形填空风格的短语,以帮助语言模型理解给定的任务。时间和地点:11月4日9:00-10:00(星期六上午九点-十点)办公楼310会议室           ...

语义计算2023秋季讨论班——多样性文本生成和Stable diffus...

一、 主题:多样性文本生成和Stable diffusion的可解释性主讲人:韩雨辰摘要:第一篇工作提出了一个基于Transformer的循环变分编码器结构TRACE。该方法根据时间序列信息构造隐变量,并通过残差参数化构造后验分布。实验证明该方法能够提高生成文本的多样性。第二篇工作为了探究文生图模型Stable diffusion的可解释性,作者提出了DAAM方法。该方法通过对去噪网络中的交叉注意力进行变化和汇总,得到文本对图片像素级的影响。作者...

语义计算2023秋季讨论班——大模型是否能够理解幽默,新的...

一、 主题:大模型是否能够理解幽默主讲人:王舰摘要:大型神经网络现在可以生成笑话,但它们真的「理解」幽默吗?本文通过三项任务来测试人工智能模型,包括将笑话与卡通相匹配、选出优质配文(caption)以及解释优质配文为何有趣。完成这些任务的关键是「理解」图像和配文之间复杂且出人意料的关系。该论文研究了多模态模型和纯语言模型对幽默的理解能力,结果表明这些模型仍然大程度的落后于人类表现。时间和地点:9月23日9...