分类:
系列活动
一、 主题:DeBERTa主讲人:杨磊稳摘要:本次分享一种新的模型架构DeBERTa(具有解纠缠注意力的解码增强型BERT),该架构使用两种新技术改进了BERT和RoBERTa模型。第一种是解纠缠注意力机制,其中每个单词使用分别编码其内容和位置的两个向量来表示,并且单词之间的注意力权重分别使用关于其内容和相对位置的解纠缠矩阵来计算。其次,使用增强的掩码解码器在解码层中结合绝对位置,以预测模型预训练中的掩码令牌。时间和地点:9...
一、 主题:原型学习主讲人:梁延杰摘要:本文设计了一种新的 N-way-K-shot 连续关系提取(NK-CRE Continual Relation Extraction)任务,并且在不同的模型上使用了该固定设置,以便于评估不同模型的具体效果,使得效果更可比较且合理,并且提出了一种采用一致性原型学习 Consistent Prototype Learning(ConPL)的新颖的少样本连续关系提取方法来解决灾难性遗忘问题。时间和地点:9月16日9:00-10:00(星期六上午九点-十点)...
一、 主题:少样本学习主讲人:梁延杰摘要:目前小样本文本摘要研究缺乏一个统一的评价基准。过去的研究一方面集中只关注一类文本的研究,如:新闻摘要或对话摘要,这导致很难评估模型在不同类型文本上的泛化能力;另一方面,过去研究训练所用的样本并不公开。而小样本学习对数据非常敏感,这会造成样本选择误差(Sample Selection Bias)的问题。为解决这两个问题,本文提出了UniSumm,可以利用以往摘要数据进行预训练并通过前...
一、 主题:弱监督文本分类主讲人:杨磊稳摘要:本次介绍的工作是与弱监督文本分类相关。弱监督文本分类旨在仅使用类描述和未标记数据来训练分类器。以往的方法不仅依赖于精心绘制的类描述来获得特定于类的关键字,而且还需要大量未标记的数据,并且需要很长时间来训练。本文提出了一种高效的弱监督分类方法FastClass,在分类精度方面优于传统模型,并且训练速度快了几个数量级。时间和地点:4月23日9:00-9:30(星期日上午九点...
一、 主题:可控文本生成主讲人:韩雨辰摘要:本次介绍的两篇工作都是与可控文本生成相关的。第一篇工作从分布的角度对属性融合进行了观察,并提出直接搜索多个属性分布的交集区域算法辅助生成;第二篇工作提出了Discourse-Aware软提示前缀调优方法,通过前缀分层和稀疏注意力机制提高可控文本生成质量。时间和地点:4月14日19:00-20:00(星期五晚上七点-八点)线上腾讯会议 ID:690-7644-3039一、 主题:推荐算法主讲人:李稳...