分类: 系列活动

语义计算2024春季讨论班——语言模型的对齐攻击,上下文学习...

一、 主题: 语言模型的对齐攻击主讲人: 吴慧倩摘要: 本次分享的第一篇文章介绍新的语言模型架构:背包语言模型,该模型有着优秀的建模能力的同时提供了可解释性与可控的接口。背包语言模型为词汇表中的每个单词学习多个上下文无关意义向量并将序列中的单词表示为该序列中意义向量的上下文相关的非负线性组合,将词袋模型与注意力机制思想结合,能够被用于去偏以及可控文本生成任务。第二篇文章介绍对齐大语言模型在面对对抗...

语义计算2024春季讨论班——可控文本生成、评估指令调优语...

一、 主题: 可控文本生成主讲人: 韩雨辰摘要: 第一篇工作提出了一个新的框架-定向刺激提示。该框架在提示符中引入了一个名为“定向刺激”的新组件,以提供对大语言模型的细微的、特定实例的指导和控制。使用一个相对较小且可调的LM(例如,T5)作为策略模型,为每个输入查询生成定向刺激提示。这种方法使我们能够通过优化小的可调策略模型来避免对黑盒大语言模型的直接优化。第二篇工作提出了一种可拔插的可控文本生成方法,该...

语义计算2024春季讨论班——检索增强生成、语言模型对齐

一、 主题: 检索增强生成主讲人: 梁延杰摘要: 让大型语言模型(LLM)生成的内容准确、可信、可追溯至关重要,尤其是在需要多步骤推理且每一步都需要知识来解决的复杂知识密集型任务中。检索增强生成很有可能解决这个问题。然而,在哪里以及如何将信息检索(IR)引入LLM是一个很大的挑战。以往的工作存在IR检索到的错误知识误导LLM以及IR和LLM之间的交互破坏LLM推理链的问题。本文提出了一种名为搜索链(SearChain)的新颖框...

语义计算2024春季讨论班——学会通过自我反思来检索、生成...

一、 主题: 自我反思:学会通过自我反思来检索、生成和批评主讲人: 梁延杰摘要: 尽管大型语言模型 (LLM) 具有卓越的功能,但由于它们仅依赖于所封装的参数知识,因此通常会产生包含事实不准确的响应。检索增强生成(RAG)是一种通过检索相关知识来增强语言模型的临时方法,可以减少此类问题。然而,不加区别地检索和合并固定数量的检索到的段落,无论检索是否必要,或者段落是否相关,都会降低 LM 的多功能性或可能导致生成...

语义计算2024春季讨论班——使用模态相关预训练的文本到代...

一、 主题: 使用模态相关预训练的文本到代码生成主讲人: 贾颖欣摘要: 大型预训练语言模型通常是将自然语言和程序语言这两种模态映射到相同的嵌入空间中。然而,编程语言关键字(例如“while”)通常具有非常严格定义的语义。因此,从他们的自然语言使用中进行迁移学习可能不一定对他们的代码应用有益,反之亦然。假设一个已经预先训练好的语言模型,在这项工作中,作者研究了如何根据令牌序列所属的模态(自然语言/程序语言...