语义计算2023秋季讨论班——基于预训练模型的少样本命名实体识别,知识库问答

一、 主题: 基于预训练模型的少样本命名实体识别

主讲人: 李成


摘要 少样本命名实体识别的目标是识别具有有限标记实例的命名实体。以往的工作主要集中在优化传统的标记分类框架,而忽视了基于 NER 数据特征的信息探索。针对这一问题,本次分享基于联合任务特定预训练(MSDP)的多任务语义分解框架。示范性对比学习的启示,本文主要介绍了两个新颖的预训练任务: 基于演示的掩蔽语言建模(MLM)和类对比鉴别。这些任务有效地整合了实体边界信息,增强了预训练语言模型(PLM)中的实体表示。


时间和地点:11月18日9:00-10:00(星期六上午九点-十点)办公楼310会议室

                        腾讯会议 ID:832-9044-3496


二、 主题: 知识库问答

主讲人: 梁延杰


摘要: 知识库问答(KBQA)旨在通过大规模知识库(KB)得出自然语言问题的答案,通常分为两个研究部分:知识检索和语义解析。然而,仍然存在三个核心挑战,包括知识检索效率低下、检索错误对语义解析产生不利影响以及先前 KBQA 方法的复杂性。在大型语言模型 (LLM) 时代,我们引入了 ChatKBQA,这是一种新颖的生成然后检索 KBQA 框架,它建立在微调开源 LLM 的基础上,例如 Llama-2、ChatGLM2 和 Baichuan2。 ChatKBQA提出首先使用微调的LLM生成逻辑形式,然后通过无监督检索方法检索和替换实体和关系,这更直接地改进了生成和检索。



时间和地点:11月1810:00-11:00(星期六上午十点-十一点)办公楼310会议室

                       腾讯会议 ID:832-9044-3496





图文作者:杨磊稳    责任编辑:孙宇清