打脸哲学无用!牛津博士教出Claude,自曝百万年薪提示词秘诀
打脸哲学无用!牛津博士教出Claude,自曝百万年薪提示词秘诀在Anthropic,有一位驻场哲学家Amanda Askell专门研究如何与AI模型打交道。她不仅主导设计了Claude的性格、对齐与价值观机制,还总结出一些行之有效的提示词技巧。哲学在AI时代不仅没有落伍,反而那些通过哲学训练掌握提示词技巧的人,年薪中位数可以高达15万美元。
在Anthropic,有一位驻场哲学家Amanda Askell专门研究如何与AI模型打交道。她不仅主导设计了Claude的性格、对齐与价值观机制,还总结出一些行之有效的提示词技巧。哲学在AI时代不仅没有落伍,反而那些通过哲学训练掌握提示词技巧的人,年薪中位数可以高达15万美元。
给你 30s,介绍一下今天你的 OOTD 吧。
我们正处在一个AI Agent(智能体)爆发的时代。从简单的ReAct循环到复杂的Multi-Agent Swarm(多智能体蜂群),新的架构层出不穷。但在这些眼花缭乱的名词背后,开发者的工作往往更像是一门“玄学”,我们凭直觉调整提示词,凭经验增加Agent的数量,却很难说清楚为什么某个架构在特定任务上表现更好。
经常用 AI 的人都知道,大模型在与用户对话前,都会先阅读一段「系统提示词」,这个步骤不会对用户显示,而是模型的自动操作。这些提示词规定了模型的行为准则,很常见,不过在 Claude 的提示词中,竟要求模型参考「欧陆哲学(Continental Philosophy)」。
就在最近,豆包上新了图像创作模型 Doubao-Seedream-4.5(以下简称 Seedream 4.5)。 猜猜下面两张图片,哪张是 Seedream 4.5 生成的?哪张是最近风头正盛的 Nano Banana Pro 生成的?
宾夕法尼亚大学沃顿商学院(The Wharton School)今年发布了一系列名为《Prompting Science Reports》的重磅研究报告。他们选取了2024-2025最常用的模型(如GPT-4o, Claude 3.5 Sonnet, Gemini Pro/Flash等),在极高难度的博士级基准测试(GPQA Diamond)上进行了数万次的严谨测试。
讲真,谁小时候没幻想过自己突然变成巨人? 像奥特曼那样,随手把高楼大厦当武器,亦或者,把珠穆朗玛峰当台阶一脚跨过去,《格列佛游记》里的小人国,更是想象已久的场景。
左下角的血条、右下角的小地图,还有这一连串丝滑的跑酷动作…… 看到这个画面,你是不是以为《疯狂动物城2》这边刚拿下中国影史进口动画片票房第一,那边就趁势要推出 3A 开放世界游戏了?甚至这光影和物理碰撞,比很多大厂的游戏都要真实。
我们距离“一人造一家公司”、亦或者“仅凭自然语言就能开发出一款完整的应用甚至游戏”还有多远?
最近口述采样很火。如果您经常使用经过“对齐”训练(如RLHF)的LLM,您可能已经注意到一个现象:模型虽然变得听话、安全了,但也变得巨“无聊”。