语义计算2023秋季讨论班——多样性文本生成和Stable diffusion的可解释性、强化学习、零样本关系抽取

一、 主题:多样性文本生成和Stable diffusion的可解释性

主讲人:韩雨辰


摘要第一篇工作提出了一个基于Transformer的循环变分编码器结构TRACE。该方法根据时间序列信息构造隐变量,并通过残差参数化构造后验分布。实验证明该方法能够提高生成文本的多样性。第二篇工作为了探究文生图模型Stable diffusion的可解释性,作者提出了DAAM方法。该方法通过对去噪网络中的交叉注意力进行变化和汇总,得到文本对图片像素级的影响。作者通过测试该方法对名词的语义分割能力来评估其有效性并使用DAAM研究了句法在像素空间中的作用。


时间和地点:10月28日9:00-10:00(星期六上午九点-十点)办公楼310会议室

                        腾讯会议 ID:832-9044-3496


二、 主题:强化学习

主讲人:范禄珂


摘要在会话查询中,重写查询是一个重要的任务,通过作者提出的CONQRR框架,作者强化学习应用于原有的会话重写中,取得了最好的结果。同时,作者对于实验结果进行了一系列的分析,对于框架和任务有了更加深入的探索。蕴涵树是一种结构化推理结构,可以在树结构中提供具有蕴涵步骤的明确逻辑推理步骤。作者提出来了RLET,这种基于强化学习的蕴涵树生成框架,在蕴涵树生成任务中超过了现有的基准算法,在实际中也有一定的应用型。



时间和地点:10月2810:00-11:00(星期六上午十点-十一点)办公楼310会议室

                       腾讯会议 ID:832-9044-3496


三、 主题:零样本关系抽取

主讲人:贾颖欣


摘要在这次介绍的论文中,作者提出了一种针对零样本关系提取的细粒度语义匹配方法。作者将编码和匹配解耦为两个模块。编码模块遵循siamese方案分别对输入和描述进行编码以提高效率,匹配模块负责细粒度的交互。根据上述匹配模式,作者将句子级相似性得分分解为实体匹配得分和上下文匹配得分。实验结果表明,与现有技术相比,作者的方法获得了更高的匹配F1分数,推理速度快了10倍。

时间和地点:10月2811:00-12:00(星期六上午十点-十二点)办公楼310会议室

                       腾讯会议 ID:832-9044-3496


图文作者:杨磊稳    责任编辑:孙宇清