语义计算实验室2020秋季学期讨论班(8)

 一、 主题:以深度论文推荐相关方法为例的文献综述经验分享

主讲人:谢翌

摘要:经典的引文推荐模型可被分为三种主要方式:基于文本的过滤、协同过滤、基于图的推荐。这类方法往往受到数据稀疏、冷启动等困扰,无法为用户提供优质的推荐结果。近年来,相关科研人员将注意力集中到利用复杂的深度神经网络来进行引文推荐,捕获论文的语义表征和相关上下文信息,从而显著改善最终推荐结果。本次讨论班针对深度论文推荐问题,综述这类研究的优缺点是什么、在相同评估指标下的表现如何、常用哪些数据集、又面临哪些的挑战。

时间和地点:11月21日9:00-10:30(星期六上午9点-10点30分),软件学院办公楼310会议室


二、 主题:利用自推理生成句子表示

主讲人:夏天宇

摘要:本文提出了一种简单而有效的句子编码器SINN,它利用了RNN和CNN的知识。SINN在交互空间中收集语义证据,然后通过共享向量门进行融合,以确定最相关的上下文信息。它通过自推理来利用各种编码方法的信息。

时间和地点:11月21日10:30-12:00(星期六上午10点30分-12点),软件学院办公楼310会议室


三、 主题:机器翻译、seq2seq与注意力机制

主讲人:侯庆锐

摘要:本节课引入了一个新的NLP任务:机器翻译,并介绍了seq2seq模型。seq2seq是一种重要的encoder-decoder式模型,在多种NLP任务中发挥了重要的作用。而在对它的改进中,注意力(Attention)机制是十分关键的,它同样可以应用于多种机器学习任务。

时间和地点:11月21日15:00-17:00(星期六下午3点-5点),软件学院办公楼310会议室


四、 主题:序列建模:循环和递归网络

主讲人:杨涛

摘要:就像卷积神经网络专门处理网格化数据一样,循环神经网络被专门用来处理序列化的数据。本次讨论班对《深度学习》第十章序列建模的内容进行讲解。主要包括展开图、循环神经网络、双向RNN、编码-解码序列、深度循环网络、递归神经网络等内容,并对RNN中的长期依赖问题进行探讨,并由此引出对该问题的优化方法。

 时间和地点:11月24日13:30-16:00(星期二下午1点30分-4点),软件学院办公楼201会议室