分类: 系列活动

语义计算2023春季讨论班——大规模预训练语言模型下的文本...

一、 主题:大规模预训练语言模型下的文本生成主讲人:郑璐阳摘要:本次介绍的两篇论文都是关于文本生成的。第一篇工作是针对低资源环境下,提出了一个用于长文本摘要生成的语义自分割方法,在不丢失长文本语义的情况下,生成准确的摘要;第二篇工作则是为了解决生成的长文本不连贯的问题,提出了一种新的生成框架,利用自回归的自注意力机制来动态地进行内容规划和单词生成。时间和地点:3月18日9:00-10:00(星期六上午九点-十...

语义计算2023春季讨论班——大规模学术论文检索下的深度语...

一、 主题:大规模学术论文检索下的深度语义哈希主讲人:黄钿摘要:随着大量学术论文的涌现,高效的检索显得尤为重要,本次讨论班上介绍一种采用多输入自编码器架构的哈希编码模型,引入加权重要性的标签评价方法,并结合引文网络和语义内容嵌入双重构来提升哈希码的质量,是哈希应用到学术论文检索的一次值得肯定的实践。时间和地点:3月11日9:00-10:00(星期六上午九点-十点)办公楼201腾讯会议 ID:690-7644-3039一、 主题:...

语义计算2023春季讨论班——引文网络和对比学习

一、 主题:引文网路主讲人:李稳摘要:本次分享的两篇工作均和引文网络相关,第一篇是研究学术引用中的地理偏见问题,角度新颖,分析了不同地区的学术影响力的传播情况,很有意义;另一篇是针对训练引文网络时如何选择正负样本的问题,作者利用简单的聚类方法获得了不错的实验结果,并分析了其中内涵的原因。时间和地点:3月4日9:00-10:00(星期六上午九点-十点)办公楼201腾讯会议 ID:690-7644-3039一、 主题:对比学习主讲...

语义计算2022秋季讨论班——少样本学习的样本顺序敏感性和...

一、 主题:少样本学习的样本顺序敏感性和可控文本生成主讲人:韩雨辰摘要:本次分享的第一篇工作发现了在少样本学习中样本顺序会对性能产生影响。作者采用了语言模型构造探测集探寻性能较好的样本顺序并通过丰富的实验证明了该方法的有效性。本次分享的第二篇工作与可控本文生成有关,在解码阶段将多属性可控的文本生成问题转化为多目标优化问题,使用拉格朗日乘子和基于梯度下降的技术来生成所需的文本。时间和地点:11月30日1...

语义计算2022秋季讨论班——可控文本生成、少样本学习

一、 主题:可控文本生成主讲人:郑璐阳摘要:本次讨论班分享的两篇论文都是和可控文本生成相关的。第一篇论文是设计了一个有效的多属性可控文本生成框架,其中包含的对比生成器、外部判别器和top-n加权解码都可以有效的提升生成文本的质量;第二篇论文则是提出了一个端到端的知识引导的学术论文评论生成框架,其中知识包含两种不同类型的知识,分别是概念图和引用图,模型借助知识可以生成质量更高的论文评价。时间和地点:11月...