语义计算2024春季讨论班——NP难问题专题

一、 主题: 

大型语言模型作为端到端组合优化求解器

主讲人: 

王子杰

摘要 

组合优化(CO)问题是物流、制造等决策场景的核心,传统上需借助特定问题专用算法求解,且这类算法要求深厚的领域专业知识。尽管大型语言模型(LLMs)在自动化解决组合优化问题方面展现出潜力,但现有方法依赖代码生成或求解器调用等中间步骤,限制了其通用性和易用性。本文提出一种新型框架,通过将自然语言问题描述直接映射到解决方案,使 LLMs 能够作为端到端组合优化求解器。我们设计了两阶段训练策略:监督微调(SFT)让 LLMs 从领域专用求解器中习得解决方案生成模式,而兼顾可行性与最优性的强化学习(FOARL)过程则明确减少约束违反情况,提升解决方案质量。在七个 NP 难组合优化问题上的评估结果显示,通过微调一个 70 亿参数的大型语言模型,我们的方法实现了较高的可行性率,并将平均最优性差距缩小至 1.03%–8.20%,性能超越了通用大型语言模型(如 GPT-4o)、推理模型(如 DeepSeek-R1)以及领域专用启发式算法。该方法构建了统一的基于语言的组合优化处理流程,无需大量代码执行,也无需针对不同问题手动调整架构,为传统求解器设计提供了一种通用、语言驱动的替代方案,同时保持了相对可靠的可行性保障。

时间和地点:10月13日9:00-10:00 办公楼310会议室


二、 主题: 

LaMMA-P:具有泛化能力的多智能体长时程任务分配与规划 —— 语言模型驱动的 PDDL 规划器

主讲人: 

李玉欣

摘要 

语言模型(LMs)具备强大的自然语言理解能力,能有效将人类指令转化为简单机器人任务的详细规划。然而,处理长时程任务仍是一项重大挑战,尤其是在协作异构机器人团队的子任务识别与分配方面。为解决这一问题,我们提出语言模型驱动的多智能体 PDDL 规划器(LaMMA-P),这是一种新型多智能体任务规划框架,在长时程任务上实现了当前最优性能。LaMMA-P 融合了语言模型的推理能力与传统启发式搜索规划器的优势,在达成高成功率和高效率的同时,展现出强大的跨任务泛化能力。此外,我们构建了 MAT-THOR 基准数据集,该数据集基于 AI2-THOR 环境,包含两种不同复杂度的家庭任务。实验结果表明,与现有的基于语言模型的多智能体规划器相比,LaMMA-P 的成功率提升 105%,效率提升 36%。实验视频、代码、数据集以及各模块使用的详细提示词可在项目官网查询:https://lamma-p.github.io

时间和地点:10月13日9:00-10:00 办公楼310会议室




图文作者:齐书成    责任编辑:孙宇清