AI资讯新闻榜单内容搜索-prompt

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: prompt
LangChain推出自动化提示优化工具Promptim:一键优化,效率倍增

LangChain推出自动化提示优化工具Promptim:一键优化,效率倍增

LangChain推出自动化提示优化工具Promptim:一键优化,效率倍增

在当前 AI 开发中,提示词工程常常面临优化耗时、效果不稳定等挑战。LangChain 近日推出自家的自动提示词优化工具Promptim[1],为开发者提供了一套系统化改进 AI 提示词的解决方案。这款工具能够自动优化特定任务的提示词,显著提升开发效率。

来自主题: AI资讯
7344 点击    2024-11-16 14:43
17岁高中生写了个神级Prompt,直接把Claude强化成了满血o1。

17岁高中生写了个神级Prompt,直接把Claude强化成了满血o1。

17岁高中生写了个神级Prompt,直接把Claude强化成了满血o1。

这两天,我被这个Claude3.5这个神级Prompt惊呆了。 佩服的五体投地。 非常简单的话说,就是它用Prompt把o1级别的思维链,复刻到了Claude3.5里,而且思考逻辑更详细、更像人,甚至思考过程都跟o1一样,可以展开折叠。

来自主题: AI资讯
7361 点击    2024-11-15 20:28
一个有意思的Prompt演员框架,LLMs被当成演员;提示被当成剧本;LLM输出被当成表演,o1从76%提高到87%

一个有意思的Prompt演员框架,LLMs被当成演员;提示被当成剧本;LLM输出被当成表演,o1从76%提高到87%

一个有意思的Prompt演员框架,LLMs被当成演员;提示被当成剧本;LLM输出被当成表演,o1从76%提高到87%

如何更好地设计提示词(Prompt)一直是大家关注的焦点。最近,一个独特的研究视角引起了广泛关注:将LLMs视为“演员”,将提示词视为“剧本”,将模型输出视为“表演”。

来自主题: AI技术研报
3287 点击    2024-11-13 14:19
你是天才竟然比白痴得分低?卡梅隆和斯坦福最新,你是Assistant会让LLM降低性能,Roleplay究竟该怎么用

你是天才竟然比白痴得分低?卡梅隆和斯坦福最新,你是Assistant会让LLM降低性能,Roleplay究竟该怎么用

你是天才竟然比白痴得分低?卡梅隆和斯坦福最新,你是Assistant会让LLM降低性能,Roleplay究竟该怎么用

在Prompt工程领域,角色扮演提示是否能够有效提高大型语言模型(LLM)的性能一直是一个备受关注的话题。

来自主题: AI资讯
3123 点击    2024-11-11 14:32
MetaGPT开源自动生成智能体工作流,4.55%成本超GPT-4o

MetaGPT开源自动生成智能体工作流,4.55%成本超GPT-4o

MetaGPT开源自动生成智能体工作流,4.55%成本超GPT-4o

对于 LLM 从业者来说,让 LLM 落地应用并发挥作用需要手动构建并反复调试 Agentic Workflow,这无疑是个繁琐过程,一遍遍修改相似的代码,调试 prompt,手动执行测试并观察效果,并且换个 LLM 可能就会失效,有高昂的人力成本。许多公司甚至专职招聘 Prompt Engineer 来完成这一工作。

来自主题: AI技术研报
3369 点击    2024-11-09 10:31
全面思考,从目标到起点规划,提升LLM规划能力4%至24% |普林斯顿最新

全面思考,从目标到起点规划,提升LLM规划能力4%至24% |普林斯顿最新

全面思考,从目标到起点规划,提升LLM规划能力4%至24% |普林斯顿最新

在Prompt工程领域,规划任务一直以来都是一个巨大的挑战,因为这要求大语言模型(LLMs)不仅能够理解自然语言,还能有效执行复杂推理和应对长时间跨度的操作。

来自主题: AI资讯
3594 点击    2024-11-08 10:16
工作流串联李继刚的 7 个神级 prompt后,我解决了:为什么单身、高血压如何预防、要不要跳槽、小红书深度文案(万字干货)

工作流串联李继刚的 7 个神级 prompt后,我解决了:为什么单身、高血压如何预防、要不要跳槽、小红书深度文案(万字干货)

工作流串联李继刚的 7 个神级 prompt后,我解决了:为什么单身、高血压如何预防、要不要跳槽、小红书深度文案(万字干货)

是李继刚贯彻 read in prompt out 的七个提示词。 

来自主题: AI资讯
9340 点击    2024-11-07 10:11
LLM的Prompt竟然是图灵完备的?LLM提示范式的第一个研究 | 重磅

LLM的Prompt竟然是图灵完备的?LLM提示范式的第一个研究 | 重磅

LLM的Prompt竟然是图灵完备的?LLM提示范式的第一个研究 | 重磅

近日,伊利诺伊大学香槟分校的研究团队发布了一篇开创性论文,首次从理论层面证明了大语言模型(LLM)中的prompt机制具有图灵完备性。这意味着,通过合适的prompt设计,一个固定大小的Transformer模型理论上可以计算任何可计算函数。这一突破性发现为prompt工程提供了坚实的理论基础。

来自主题: AI技术研报
4439 点击    2024-11-07 09:39
多专家Prompt: 让LLM拥有群体决策的智慧 |最新

多专家Prompt: 让LLM拥有群体决策的智慧 |最新

多专家Prompt: 让LLM拥有群体决策的智慧 |最新

在当前的LLM应用开发中,工程师们通常通过使用单一角色或专家视角的方式来处理复杂问题。这种单一视角虽然能够提供一定的专业性,但也经常因为专家视角的局限性带来偏见,影响输出的全面性和可靠性。

来自主题: AI技术研报
7820 点击    2024-11-06 09:40
你真的会用ICL吗?把ICL和IWL双重学习同时写进提示词试试 | DeepMind

你真的会用ICL吗?把ICL和IWL双重学习同时写进提示词试试 | DeepMind

你真的会用ICL吗?把ICL和IWL双重学习同时写进提示词试试 | DeepMind

大家对in-context learning(ICL)的能力可能已经很熟悉了,您通常会通过上下文示例就能快速让prompt适应新任务。然而,作为AI应用开发者,您是否思考过:为什么有时候精心设计的few-shot prompt会失效?为什么相同的prompt模式在不同场景下效果差异巨大?

来自主题: AI技术研报
5494 点击    2024-11-05 09:17