认知计算创新实验室2020秋季学期讨论班(8)

一、 主题:机器翻译、seq2seq与注意力机制

主讲人:侯庆锐

摘要:本节课引入了一个新的NLP任务:机器翻译,并介绍了seq2seq模型。seq2seq是一种重要的encoder-decoder式模型,在多种NLP任务中发挥了重要的作用。而在对它的改进中,注意力(Attention)机制是十分关键的,它同样可以应用于多种机器学习任务。

时间和地点:11月21日15:00-17:00(星期六下午3点-5点),软件学院办公楼310会议室