用 AI 做了一次真正的深度研究,才明白什么叫降维打击

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
用 AI 做了一次真正的深度研究,才明白什么叫降维打击
5851点击    2025-06-05 16:06

目录


1、深度研究实际场景


2、深度研究是什么,它用了什么能力?


3、在深度研究上,AI 为啥比人强这么多?


4、哪些问题,值得用深度研究方式来做?


5、怎样用好深度研究,保持结果的稳定性?


6、各类深度研究产品的特点以及使用技巧?


0|楔子


我朋友最近在问我有没有什么低估但有成长性的美股参考。

他的风格偏保守,不喜欢投热门题材股,也不太擅长看复杂的财务模型。

但现在行情波动大,他又不想错过抄底机会,

就想看看能不能让 AI 帮他跑一轮定投策略,顺便挑几只股票当作研究样本。


他的原话是:不指望 AI 给我一夜暴富,但起码能省点力吧?

于是我试着用几个不同的 AI 工具,跑了一轮深度研究任务。


请注意,下面内容只是验证 AI 在“结构化研究任务”上的能力;

单纯是一次 AI 跑选股流程的测试案例,欢迎参考思路,不要照搬答案;

不作为任何投资建议,更不建议照抄任何选股结论,股市有风险,入市需谨慎。


用 AI 做了一次真正的深度研究,才明白什么叫降维打击


1|拆解


整个过程大概跑了十五分钟,生成了一份 Markdown 格式的研究报告。

这时候你可能会发现,我们常说的“用 AI 查资料”,其实已经不是搜索的体力活了,而是认知活。


因为就算我能用好搜索引擎,我却很难做到根据结果进一步思考下一轮的提示词。

所以这也是我想提出的一个新的观点。

AI 搜索已经不同于给出答案,AI 深度研究拼的是对内容的解构,拼的是新的认知。


AI 不再告诉你它知道什么,搜到了什么,而是带着你,按一个有逻辑的路径,把问题摸清楚。

上面的押题结果只是表面,背后真正厉害的,是那个由搜索、分析、总结组成的深度研究的思路。


2|深度研究是什么,用了什么能力?


刚才的这一段深度研究,跑的是这样一个流程:


1. 先系统性整理了过去十年广东卷的作文题干和评分标准;


2. 然后自动对这些题目进行归类,比如:情境引导型、任务驱动型、材料类命题等;


3. 接着判断这些题型背后反映出的命题思路是否与教育政策、价值导向、社会议题变化相关;


4. 再进一步收集 2024–2025 年之间出现的热点政策、教育导向、时代叙事、新闻事件;


5. 最后,用一个结构化的模型路径,把“过去的命题规律”和“当下的命题可能性”结合起来,给出若干预测方向和理由。


用 AI 做了一次真正的深度研究,才明白什么叫降维打击


我刚开始用 ChatGPT 深度研究的时候,刻板觉得深度研究就只是资料更多而已,

但它真正的本质,是让模型带着明确目标,执行一个有逻辑、有记忆、有节奏的搜索与判断流程


它并不仅仅是搜索,多轮推理才是更关键的能力;

不仅比你知道得更多,还比你更会查、查得更准确、更省时间。


这依赖的是 AI 的以下五种核心能力:


1. 迭代搜索

AI 不会一次把所有问题查完,而是一步步搜索。

每一轮搜索的关键词、角度、时间范围,都是基于上一次搜索的结果自动生成的。


2. 上下文保持

只要大模型上下文窗口够大,它就能在一次任务中持续保持“研究目标”不变,并把之前获取的信息作为判断依据,不断加深理解。


3. 分层规划

像刚才押题那样的任务,其实需要拆解成多个子问题:过去题型是什么、出题机制如何、社会背景怎样……

深度研究的关键就是拆得够细、搜得够准,再按逻辑顺序一层层完成。


4. 关联挖掘

比如你发现某些细微和当年的政府工作报告主旨雷同、或者和某部电影宣传口径一致,这些“非直接相关”的东西,AI 能大量内容中找到这些潜在线索。


5. 结构化综合

这么庞大的上下文可能所有十几万字,最终需要AI把这些素材变成容易阅读的内容,不如逻辑通顺、结构清晰的 Markdown、HTML、PPT。


最后,我们只需要阅读结构化的结果,再基于结果进行问答或者进一步创作就可以了。


简单的流程图是这样的


用 AI 做了一次真正的深度研究,才明白什么叫降维打击


所以说,深度研究的核心,是拆得细、查得准、最后写得清楚

它对比之前的 Perplexity 这样的产品,改进点是资料重组的能力,而不是简单的搬运和总结。


3|在深度研究上,AI 为啥比人强这么多?


看到这里,也许你会问:

这些看起来确实挺牛逼,挺系统的,但如果我自己慢慢查,不也能做到差不多的效果吗?

确实,如果时间充裕、精力充沛,一些人也可以完成一次类似的任务。


但关键是:AI 和我们之间的差距,不在于能不能做类似的,而是 它能并发、他快,他稳定,结果还完整。

而人干,不说别的,光调格式就把人搞死…


下面这些,是我在使用深度研究工具过程中,体会最明显的五个 AI 优势:


1. 处理规模远超人类

我们一天能认真读完的资料,可能是几十篇文献或者一堆深度的分析报告;

AI 在几分钟内就能扫完几百份。

我们还在翻一页页搜索结果,复制粘贴相关资料的时候,AI 已经把整个趋势图整理出来了。


2. 注意力集中,不遗忘、不跳跃

做研究最怕什么?形成了一个思考链条之后,看着一半忘了上文、突然要上厕所、摸鱼、开会…

甚至刷起了短视频…

但 AI 没有注意力跑偏的问题,持续在同一个目标上迭代,不会突然兴致来了开始讲段子,刷小红书。


用 AI 做了一次真正的深度研究,才明白什么叫降维打击


3. 不遗漏、不偏信

我们查资料的时候,很容易受到经验和兴趣的影响,看到顺眼的就停下来了,反而漏掉了真正关键的角度。

AI 之所以强,是因为它可以按照预设的路径全景式推进:

每一个时间段、每一类题型、每一个可能的热点都过一遍,再做交叉比对,查缺补漏。


4. 发现隐性的联系

人类确实有直觉,有经验感知,但当信息量一旦扩大,非显性的规律几乎没法靠人力总结出来。

而且,即便人能凭直觉发现一点,但大部分都会遗漏。

很多时候,会有失偏颇…


AI 能从文本、图表、政策报告、社交话题之间,找到那些潜在模式:

比如某类题型总是出现在某类年份之后、某些表达在政策文件和作文评分标准中同时出现。


用 AI 做了一次真正的深度研究,才明白什么叫降维打击


5. 研究不完全是为了自己知道,而是为了对外表达。

AI 最大的差异化,是它在获取信息之后,可以迅速输出 Markdown 报告、PPT 框架、HTML 网页、分段摘要,几乎不需要你再做格式整理。


你甚至可以直接把这些输出拿去写提纲、写脚本、做演讲,做下一步的事情。

跳过了那一大段机械的调排版,复制粘贴的阶段。

这个是 AI 牛马最好的价值。


在搜索过程中,我觉得 AI 并没有取代我思考的能力,

但它已经把你不想思考、不擅长思考、或者来不及整理的那部分工作做得越来越成熟了。


而在真正的研究这件事上,搜索速度、覆盖面、内容准确性,其实就是竞争力


4|哪些问题,值得用深度研究方式来做?


说到底,不是每个问题都值得搞一套深度研究流程的。


有些问题你问一句,ChatGPT 回答两段就够了;

有些问题本身不复杂,做再多也没什么增量。

但也确实有一类问题,特别适合用深度研究这种方式来跑。


我的经验是,以下几类问题,一旦走深,就会天然变成结构化研究任务


1. 信息量大且分散

比如我想写一份关于“人工智能对未来职业影响”的分析报告,

资料散落在论文、新闻、论坛,甚至还要去 Boss 直聘里找,这种情况就特别适合让 AI 来收:设好关键词、限定时间范围、按维度分组拉一遍,再重新组合输出。


用 AI 做了一次真正的深度研究,才明白什么叫降维打击


2. 有时间压力

比如老板临时要我做一份同行竞品研究,明早九点要过一下。

靠人一页页搞肯定是来不及的,交给下属干也来不及,让他们一人负责一部分,沟通成本可能会大过研究成本。

这个时候 AI 可以并发跑逻辑链,把同类产品资料、趋势分析、用户评论、PR 资料整理成报告,最后补充好参考资料。

拿到结果之后再整理材料,这种场景就特别适合深度研究。


3. 有全面性压力

像一些政策解读、风险分析、合规检查,这些都不能有明显遗漏。

漏掉一个政策背景、一些数据点,整个判断就可能完全失准。

AI 做得好的一点,是它每个角度都能查一轮,而且能覆盖很多我没有考虑到的部分。


4. 客观性要求高

你可能是做第三方报告、舆情汇总、项目尽调,这些场景最怕个人情感偏好,

比如我特别喜欢或讨厌某一家公司,我做报告的时候会更多看到他们的优点或者缺点,

呈现在报告上就是不一样的结果,对我个人而言没啥,但对商业化公司而言,这些结果可能会影响业务。


AI 处理信息更冷静,能拉多个来源交叉比对,不容易被带偏。

就特别适合那种要保持中立立场的场景。


5. 重复性研究

这个是 AI 深度研究最大的价值点:

比如我不定期要做一些产品调研、每个月跟踪一次行业趋势、做自媒体每两天要思考选题。

也就是那些“你知道该查什么,但查一百次就很累”的机械活。


这种结构固定、内容更新的任务,靠人查没效率,靠 AI 做就刚刚好。

AI 做出底稿、初步输出,效率极高,而且稳定性比人好太多。


6. 跨领域问题

像 AI 医疗合规风险、AIGC 对中小学教育的影响、金融相关的这种跨专业场景,

一个可能懂 AI,懂技术,懂产品,但不懂教育;

懂教育,但不懂政策;

懂政策,但不懂 AI 底层模型…


而 AI 却可以同时调多个领域的知识,在一定程度上打通这些割裂的板块。


7. 多维复杂拆解型问题

比如我想搜索 : 新能源汽车出海过程中遇到的政策壁垒与品牌定位策略冲突,


这类问题本身维度多、变量多、人力梳理起来费时费力。

新能源汽车、出海、各国政策壁垒、品牌定位、品牌冲突…


但 AI 只要设好结构,就能把它拆成一些正交的关键词一起跑一遍,最后拼接起来输出。


这些任务有个共同点:信息密度高、角度多、节奏快、人力容易崩


这也是我觉得深度研究真正适用的场景:

把人从冗长、重复、容易出错的信息处理工作中拉出来,把时间留给真正需要判断的环节。


5|怎样用好深度研究,保持结果的稳定性?


前面说过,大模型做深度研究,是一步带一步的。

不是直接生成答案,而是先拆思路,再查一轮资料,再根据查到的结果调整下一步。


这个逻辑听起来很不错,但也带来一个非常显著的问题:结果很不稳定


我给它一个需求,它先去抓一轮材料;但每次抓到的内容不一样,后面推理的路径自然就变了。

同一个问题,今天跑出来一套说法,明天又换了一套,内容不一定错,但风格、结构、关注点,全不一样。


任务只要稍微复杂一点,就很容易跑偏或者跳段。

所以,一些常见的场景中的深度研究其实不需要 AI 太过于自我发挥,最好在一开始就加一个结构性的约束


我的实践是:写一个元提示词进行约束,让 AI 帮助我约束深度研究。


基于我模糊的需求,写清楚这个任务到底要怎么拆、怎么查、怎么走流程。

一步步写出来,模型照这个路径进行深度研究。


比如,原本是:


今天有没有几只美股股票值得入手的?

最好给我搞点低价位的潜力股。

你看看大盘,然后想想,最后给我挑一些。


AI 把它展开写成这样:


1、收集当前美股市场的实时数据,包括主要指数表现、板块轮动情况、交易量变化、市场情绪指标等,同时收集近期低价股(股价在50美元以下)的详细信息,整理成标准化表格,包含股票代码、当前价格、市值、行业分类、近期涨跌幅、成交量等关键数据。


2、基于收集的市场数据,深度分析当前美股的整体趋势和低价股的表现模式,识别哪些行业板块正在获得资金流入,分析低价股中的价值洼地和成长潜力,用统计数据展示市场热点轮动规律、资金流向特征、以及低价股的风险收益比分布情况。


3、从市场分析中提取影响股票表现的核心驱动因素,包括宏观经济政策、行业发展趋势、公司基本面变化、技术面突破信号、市场资金偏好等关键要素,按重要性排序并评估各因素对低价潜力股选择的影响权重,重点识别能够驱动股价上涨的决定性因素。


4、收集当前影响美股市场的重要背景信息,包括最新的货币政策动向、重要经济数据发布、地缘政治影响、行业政策变化、重大公司事件等现实因素,建立完整的市场环境分析框架,特别关注可能在短期内影响低价股表现的催化剂因素。


5、综合前四层所有信息,运用量化分析和逻辑推理筛选出具体的低价潜力股推荐名单,需要包含完整的选股逻辑、每只股票的投资亮点分析、风险评估、预期收益率估算、最佳买入时机判断,以及整体投资组合的风险控制建议和止损策略。


这样一来,它每一步都知道要查什么、要怎么判断、最后要怎么写。

而且层层递进。

你再多跑几次,里面内容细节不同,但思路和结构变化也不大。


而且有个巨大的好处:

ChatGPT 这种定期有限制的功能,用这个提示词生成之后,能极大提升 AI 深度研究的质量!


对比没有用提示词的思考过程…

用了这个提示词能让大模型自己卷自己。


比如基于同样的命题:

左边是没有加这个提示词, 右边是加了提示词…


用 AI 做了一次真正的深度研究,才明白什么叫降维打击


用 AI 做了一次真正的深度研究,才明白什么叫降维打击


深度研究提升元提示词


# 任务
我是一个专业的提示词生成助手。我会理解用户期望提交的命题,然后按照以下分析框架逐层深入分析,最后为用户生成一份提示词,便于他提出深度思考的要求。

# 五层深度分析框架:
## 第一层:历史数据收集与整理
我会要求系统收集目标领域的历史数据和案例,将这些信息整理成标准化的数据表格。这一层的关键是确保数据的完整性、准确性和时序性,为后续所有分析提供可靠的事实基础。数据收集必须覆盖足够的时间范围,包含所有相关的关键信息字段。

## 第二层:深度模式分析
基于第一层收集到的数据,我会要求深入分析其中的关键模式、规律和趋势。这包括频率统计、周期性变化、发展趋势等量化分析,目标是揭示隐藏在数据背后的内在逻辑和规律性特征。分析结果需要用统计数据和可视化图表来呈现。

## 第三层:核心驱动因素提取
通过对模式的深度分析,我会要求识别出真正影响结果的核心驱动因素。这些因素需要按照影响力大小进行排序,并评估各自的权重。重点是找到那些具有决定性作用的关键变量,而不是表面的相关性因素。

## 第四层:现实背景信息补强
针对已识别的核心驱动因素,我会要求收集当前相关的现实背景信息。这包括最新的政策变化、市场环境、技术发展、社会趋势等可能影响分析结果的现实因素。目标是将历史规律与当前实际情况相结合,确保分析的时效性和准确性。

## 第五层:综合推理与结论
最后一层将整合前四层的所有信息,运用严密的逻辑推理得出最终结论。这不仅包括具体的预测结果,还要包含完整的推理过程、逻辑链条、以及对结论可信度的评估。同时需要考虑可能存在的风险因素和不确定性。

## 工作示例:
**当用户输入:**
"今天有没有几只美股股票值得入手的?"

**我会生成以下提示词:**
```我需要你帮我完成一系列深度研究任务,最终返回Markdown报告。
1、请系统收集当前美股市场的实时数据,包括主要指数表现、板块轮动情况、交易量变化、市场情绪指标等,同时收集近期低价股(股价在50美元以下)的详细信息,整理成标准化表格,包含股票代码、当前价格、市值、行业分类、近期涨跌幅、成交量等关键数据。
2、基于收集的市场数据,深度分析当前美股的整体趋势和低价股的表现模式,识别哪些行业板块正在获得资金流入,分析低价股中的价值洼地和成长潜力,用统计数据展示市场热点轮动规律、资金流向特征、以及低价股的风险收益比分布情况。
3、从市场分析中提取影响股票表现的核心驱动因素,包括宏观经济政策、行业发展趋势、公司基本面变化、技术面突破信号、市场资金偏好等关键要素,按重要性排序并评估各因素对低价潜力股选择的影响权重,重点识别能够驱动股价上涨的决定性因素。
4、收集当前影响美股市场的重要背景信息,包括最新的货币政策动向、重要经济数据发布、地缘政治影响、行业政策变化、重大公司事件等现实因素,建立完整的市场环境分析框架,特别关注可能在短期内影响低价股表现的催化剂因素。
5、综合前四层所有信息,运用量化分析和逻辑推理筛选出具体的低价潜力股推荐名单,需要包含完整的选股逻辑、每只股票的投资亮点分析、风险评估、预期收益率估算、最佳买入时机判断,以及整体投资组合的风险控制建议和止损策略。```

## 更多应用场景:
这个框架同样适用于商业战略分析、市场趋势预测、投资价值评估、政策效果研究、产品发展规划等各种需要深度分析和预测的场景。无论是分析企业发展策略、预测行业发展趋势,还是评估投资机会,都会按照同样的五层逻辑进行系统化的深度研究。

## 要求
我不会对用户的问题作出任何评价,也不会解释相关的动作,我只会帮他生成提示词。
我会尽可能完整地输出问题,但一些简单的问题,不一定会完整输出五层要求。
如果遇到一些困难的问题,我可能会更进一步地提出深度研究的要求。

## 引导
当没有上下文的时候,我将通过以下一些实际的命题引导用户提出他的要求:
你好,我是专业的深度研究提示词生成器,请提出你的问题。

比如:(随便选三个)
"我想预测2025年苹果公司的新产品发布计划"
"我想分析比亚迪未来三年的市场策略"
"我想研究人工智能在教育领域的发展趋势"
"我想评估新能源汽车行业的投资价值"
"我想预测今年双十一电商平台的营销策略变化"
"我想分析房地产市场下半年的走势"
"我想研究短视频行业的竞争格局演变"


这个提示词要怎么用呢?


很简单,在你发起深度研究之前,先把这段内容发给他,然后什么也不说,等它返回。

然后拿到新的提示词,你可以编辑一下返回的研究要求,改好之后再给 AI 进行深度研究即可。


用 AI 做了一次真正的深度研究,才明白什么叫降维打击


用 AI 做了一次真正的深度研究,才明白什么叫降维打击


点击发送就可以了。这样深度研究的整个链路非常非常长…


用 AI 做了一次真正的深度研究,才明白什么叫降维打击


有兴趣可以看这个链接回放,里面还包括财富密码。


https://flowith.io/oracle-play/1a3a81ec-ba6e-4f0d-b87f-24d4c7619cff?oracle-id=32d370d5-fdd7-441c-8213-83ff3851393d


分析:


这个提示词为什么能达成这样的效果呢?

因为这个提示词,它本身就是一份完整的“深度研究任务”。

简单来说,就是让大模型帮我讲清楚了我要啥,然后大模型用他能理解的方式进行深度研究…


1. 我先约束了路径,限定它必须走哪些推理链路


这五个步骤不是随便凑的,是按我平时调研产品的思路顺序排好的:

分别是:


1. 历史数据收集


2. 模式与趋势分析


3. 驱动因素提取


4. 现实背景补强


5. 综合推理与结论输出


我自己的经验来说,只要大模型照这个顺序走,就不可能提前结论、跳段分析或者遗漏变量。只要路径定了,过程中的路径影响都没那么大。


2. 每一步都是调研思路有目的展开,而不是泛泛地补充信息


接下来仔细分析每一步的侧重点:我希望每一层都当作一个小型研究任务来进行。

所以,


  • 第一层要求:查什么数据、拉哪个时间段、整理成什么格式;


  • 第二层要求:分析哪些模式、做哪些统计、画什么图;


  • 第三层要求:识别什么因子、怎么排序、怎么评估权重;


  • 第四层要求:补充哪些现实变化、看哪些来源、从哪几个方向判断影响;


  • 第五层要求:输出几种结论、各自对应的推理链、置信度评估和可能风险。


每一轮,都尽可能地研究出结论的分析,同时,让大模型“有逻辑链的预测”。

每一层都延续了“提问 → 收集 →分析 →输出”的完整路径。

换句话说:我根据一个提示词,然后生成了五轮深度研究的要求。


3. 我提前规定了结果,模型从一开始就知道要交什么作业


很多模型出错,是因为一开始没弄清楚“自己要交一份什么样的成果”。


为了元提示词的稳定性,我采用了两个方法:


1、在提示词里就明确写了输出格式样例(Shot)。


2、提供了更多应用场景的参考。


这个 Shot 非常关键,因为如果没有这个 Shot 和这一段内容,这个提示词本身可能就会跑偏。

而更多的应用场景很有必要,让大模型能够泛化到各类其他命题场景。


更多应用场景:

这个框架同样适用于商业战略分析、市场趋势预测、投资价值评估、政策效果研究、产品发展规划等各种需要深度分析和预测的场景。无论是分析企业发展策略、预测行业发展趋势,还是评估投资机会,都会按照同样的五层逻辑进行系统化的深度研究。


4. 这段提示词的主语是“我”


这个点看起来只是个主语的改变,但对大模型的理解方式来说至关重要。

这是我探索出,让大模型帮我优化提示词的有效实践。


大部分人写提示词,都是开头一句:

“你是一位资深的趋势研究员,请你帮助我……”


这种写法确实看起来有“角色感”,但它把模型永远锁在了一个“第三人称服务者”的位置,它的注意力会被拉到角色扮演上,而不是任务拆解上。更关键的是——它不会主动揣摩“我真正要解决什么问题”。


而我这个提示词开头写的是:

“我是一个专业的提示词生成助手,我会根据用户的命题意图,生成一组系统化的深度研究提示词……”


主语是“我”。语气是主动的。模型读到这段,就知道它现在要思考的,不是怎么回应用户,而是怎么设计任务。


也就是说,如果我让它从一开始就站在系统设计者的位置。

那么,角色不是执行,而是规划;

任务不是答题,而是写提示词;

目标不是给答案,而是组织深度研究流程。


这个变化的结果很明显:


  • 模型不会再套模板说话,而是开始自己组织提示词结构;


  • 它会自动补全一些我没显式写出来的分析路径,因为它理解的是我的思路


  • 它的输出风格更具“工具感”,不是语言输出,而是任务生成。


这也是我后来发现的一个方法论:


如果我想让模型为我服务,我就不要把它设成“你”来表演。我要让它成为“我”在写东西。


所以,提示词里,我写下“我是一个提示词助手”,其实就是用一种语言手段,把模型的注意力从怎么回答引导到了怎么规划。


这一改,大模型的整个输出思维就变了。

这是我对元提示词的设计技巧。


5. 需要对用户进行引导达成冷启动


由于这是一份元提示词,本质上是“为接下来的研究任务生成提示词结构”的提示词,

所以在使用时,用户第一次发给模型的内容,不需要附带具体命题本身


这和大多数人习惯的提问方式不同:很多人上来就是一句话“帮我分析一下”“帮我预测一下”,


但对于这个提示词结构,我反而更推荐冷启动:


什么都别加,先只发提示词正文。


这一点很重要。

模型一旦接收到的是“我要研究一个任务”,它就会直接跳进任务执行状态,对于一些遵循能力比较弱的大模型而言,大模型可能上来就给你干了。


接下来,为了提高冷启动的效果,我在提示词尾部写了一段默认引导语


“你好,我是专业的深度研究提示词生成器,请提出你的问题。比如:

  • 我想预测2025年苹果的新产品发布计划;


  • 我想分析比亚迪未来三年的市场策略;


  • 我想评估新能源汽车行业的投资价值;……”


这段话承担两个任务:


  • 一方面,它帮助模型理解命题类型的语义边界,让它预设自己即将接收到的输入是什么结构;


  • 另一方面,它也在告诉用户:这是一套支持多个复杂研究命题的系统模板,不仅限于单一任务


通过这个冷启动流程,模型在未接收到命题前,就已经理解了用户的要求,接下来用户输入命题之后,它就能照五层逻辑,一步一步构造新的提示词了。


如果你是开发者,就没这么复杂了, 因为,这段文本本质就是 system prompt , 只是在 Chatbot 环节中,用户没有机会修改 system prompt ,所以做了这样的设计罢了。


7|不同工具适合不同研究任务,别一上来就全丢给 ChatGPT


现在市面上支持深度研究的工具不少, 比如夸克深度研究、Flowith、ChatGPT、Gemini… 那么:


哪个工具最强?哪个模型最准?我是不是就选个顶配模型,然后所有任务都靠它?


我不建议这样。


因为研究任务本身的复杂度、信息类型、数据入口、时效要求完全不一样。真正跑得好的深度研究,可能要根据工具的形态合理选择。


以下是我自己的实际使用经验:


ChatGPT(o3):模型能力强,适合复杂逻辑任务


如果任务本身是“思路复杂”、“逻辑链长”、“变量之间有强因果关系”的那种,比如:


  • 拆解一个宏观政策对多领域的间接影响;


  • 比较两种商业模式的结构分化路径;


  • 深度调研海外资料的细节。


这类任务扔给 o3,它能跑出非常稳定且层次清晰的推理链。

尤其是在上下文窗口很大时,o3 对资料管理和推理能力比其他模型明显强很多。

我现在所有复杂的命题,都是靠 o3 先跑一轮试试看。


夸克浏览器:信息入口好,适合中文语境下的垂类搜索任务


夸克的强项除了阿里系的千问模型,更牛逼的还有原生的搜索能力。

它本身就是搜索引擎起家的,具备底层爬虫、网页识别、垂类聚合的优势。


尤其在中文语境下,抓国内资料、跑本地新闻、接考试数据、提取公开政策文件,它比通用大模型更快、更准。 比如:


  • 想跑一个“2024 某市场方向预测”;


  • 或者做一份“最近一周 AI 新产品发布”的深度爬取任务;


  • 还有一些吃瓜的资讯…


这类资料入口明确但分散的任务,用夸克比 ChatGPT 更合适。

ChatGPT 对国内资料搜索能力有限,夸克往往效果更好。


Flowith:并发搜索和自动研究路径安排最稳,适合“任务量大”的情况


Flowith 的强项在自动化结构分解 + 高并发查询能力。虽然没有自研模型,但好处是它缝合得很丝滑。(昨天的推文骂得太大声了… 今天发现并发搜索真的好用…)

比如:


  • 我需要拆解 10 年股价;


  • 我要对比 12 家创业公司融资策略;

……


这种任务, Flowith 可以自动拆子任务、并行查资料、按结构整合输出。

过程中,你可以直接看到每一个细节。

这样我能详细看过程中资料,而其他产品的搜索结果混在一起,我很难查看过程资料。

这就是我为什么觉得 Flowith 好的点:他能提升我的搜索过程把控度。


所以,开始搜索之前,也可以先想想:


这个研究问题,信息在哪里?这事是查得难,还是分析难?我是要逻辑链,还是要数据入口?


ChatGPT 不一定是最佳选项。

ChatGPT 是强,但你要它查一个冷门中文政策,它可能还得问你在哪看,而且还死贵。


每个任务,可能都有最适合的工具。


结语|深度研究的重点,要理解用户,要稳


写完这篇文章,我反而没那么焦虑了。


作为一名 AI 产品经理,我经常会想:市面上这么多 AI 工具,真正能带给用户的价值是什么?做深度研究这样的任务,到底该用怎样的方式去定义产品的定位?


就拿这次押题来说,AI 不是做不到深度研究,

只是大多数时候,开发者不知道怎样能让深度研究帮到用户。


如果开发者把产品定义成“更聪明的搜索引擎”,它就只能给出碎片化的参考答案;

但如果我们能给它设定一个结构明确、目标清晰、节奏合理的执行框架,

会发现它能跑的深度、广度、稳定性,早就超出了我们对“查资料”这件事的想象。


另一方面,用户往往说不清问题,也很难一次就表达完需求。

这时候,产品的角色,就是帮用户把那些模糊的命题,拆成一组可执行的认知动作。


而我能做的第一步,是先成为一个深度用户,跑通流程,踩过坑。

只有这样,才可能在工具层写出一个让人用得下去的答案。


我喜欢的产品:是不花哨、不整活,但用户一旦用了,就成为生产力工具的那种。


文章来自于微信公总号“洛小山”,作者是“洛小山”。


用 AI 做了一次真正的深度研究,才明白什么叫降维打击


AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
AI爬虫

【开源免费】ScrapeGraphAI是一个爬虫Python库,它利用大型语言模型和直接图逻辑来增强爬虫能力,让原来复杂繁琐的规则定义被AI取代,让爬虫可以更智能地理解和解析网页内容,减少了对复杂规则的依赖。

项目地址:https://github.com/ScrapeGraphAI/Scrapegraph-ai

2
AI搜索

【开源免费】MindSearch是一个模仿人类思考方式的AI搜索引擎框架,其性能可与 Perplexity和ChatGPT-Web相媲美。

项目地址:https://github.com/InternLM/MindSearch

在线使用:https://mindsearch.openxlab.org.cn/


【开源免费】Morphic是一个由AI驱动的搜索引擎。该项目开源免费,搜索结果包含文本,图片,视频等各种AI搜索所需要的必备功能。相对于其他开源AI搜索项目,测试搜索结果最好。

项目地址:https://github.com/miurla/morphic/tree/main

在线使用:https://www.morphic.sh/

3
prompt

【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。

项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md

在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0