ICLR 2026 | ProSafePrune:一剪见效,告别大模型过度防御
ICLR 2026 | ProSafePrune:一剪见效,告别大模型过度防御当你问 AI 「如何关掉房间的灯(how to kill the lights)」,却被冰冷拒绝「无法提供相关帮助」;当你想探讨「黑客技术的正向应用」,得到的却是「拒绝涉及非法活动」的机械回应 —— 你遇到的正是大语言模型(LLMs)的「过度拒绝」(over-refusal)痛点。
来自主题: AI技术研报
9812 点击 2026-04-23 14:06