ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
AI不缺概念,甚至不缺技术,但实在缺产品
4716点击    2023-10-28 15:18


什么是AI落地过程中的最大问题呢?如果只可以选一个我选产品。AI产品所需要的复合度比互联网时代的APP是要大的,同时对技术的依赖程度也在变深,而在实际运转过程中权重最低,作为结果就问题最大。这一定程度上可以从干技术和干产品的人薪资上看出这个权重,很多企业也许愿意花百万以上薪资招算法的研发,但恐怕很少企业愿意花类似的薪资招产品。这就是一种错配,因为从商业成功的角度看,产品是整体肯定比单点的技术重要。


典型的作死模式


打磨AI产品的时候有一种模式可以称之为勤奋型赴死。表现就是产品经理或者相关人员没在琢磨产品本身,而是在使劲专研和强化自己对AI技术的理解,能说出下面这样一段话看着是有点酷的,但其实是走在缓慢自杀的路上:


GPT是一种基于变压器的深度学习模型,它能够通过自回归的方式生成任意长度的文本序列。GPT的技术原理是利用大规模的无标注文本数据进行预训练,然后在不同的下游任务上进行微调,从而实现多种自然语言处理的应用,如文本摘要、机器翻译、问答等。GPT的核心是使用一个多层的变压器编码器,它能够通过自注意力机制和位置编码捕捉文本序列中的长距离依赖关系和顺序信息。GPT的训练目标是最大化给定前文的条件下,预测下一个词的概率,从而学习到一个通用的语言模型。GPT的创新之处在于它能够在不需要人工标注和特定领域知识的情况下,自动地从大量的文本数据中学习到语言的规律和知识,从而实现跨领域和跨任务的泛化能力。


其实这是我让GPT瞎编的,但这种风格,在打造AI产品过程中属实常见。


这类对细节知识的追求也是要花很多时间的,追求过后就会有一种专家的幻觉。有基础的理解十分必要,但往这个方向专研却正好反了,对产品自身也是有害的。


为什么这么说呢?


产品介于技术和场景之间,确实要了解技术,但不是往技术深处的那种理解,而是从场景这一边去理解技术,否则弄个技术专家干产品不就完了么!从这个角度需要澄清的是当前技术的应用边界,比如大模型到底干什么行?干什么不行?而不是这技术到底由什么组成,每个组成什么意思。从技术看技术,才是往里面去,关注到底多少参数,除非你就是做模型产品的产品经理。



产品研究技术在跨过某个心里阈值后,还会发生更可怕的事,做预测。


很多场景预测是需要的,但产品经理不能做。


基于新技术现在能干什么来定义产品,而不是基于它潜在能干什么定义产品,因为产品是马上要给人用的,本身就是最大的预测了,如果还把技术的不确定性导入进来,那风险就会大道无以复加,变期货了。


为什么这么说呢?因为其实预测根本不准。过去十年不单是产品人预测不准,顶级专家一样预测不准。


形象点说一个产品经理如果是满口技术词汇,那其实是练错武功了。


现实里为什么很容易这样呢?


这是组织结构的特征导致的。


典型的AI公司都是技术人员创建的(此前融资的时候这是关键因素),这样就直接导致要素关键度注定会反过来:产品要在技术上面,而不是技术决定产品。


技术发言权大,会导致一系列问题。我们想象一下下面的情形:


老板是AI方向的 PhD,产品经理是不错学校的本科,这个配重下产品别提创新定义,很多时候估计都在心里打鼓,自己说的话对不对,会不会被开了,会不会被怼不专业。避免被怼个几次,为了证明自己的优秀,那就使劲弄清楚这些高级词到底什么意义,让自己变的看着还懂行,很专业。


产品经理的内涵实在太虚、太综合,毕竟不像干算法的是靠一个点专业上的本事吃饭,从工作的角度本来就需要找点实的东西往脚下填一填。而现有的组织结构其实强化这种内置趋势。


互联网早期其实完美错过了这个陷阱。


大家知道互联网时代的主角们大部分是程序员。


为什么是程序员呢,一个原因可能就是上古程序员根本不分工,一个人什么都干了,即干产品也干开发很多时候还得卖东西。这就导致这些人正好在就在上图中间那个位置。有时候有人会强调自己编程技术多么厉害,这是事实没错,但肯定不是关键原因,因为编程厉害的人多了。我个人觉得一个关键促成成功的原因就是他们有更多产品和技术综合的视角。


AI产品到底应该考虑那些维度呢?


产品来源于技术和场景,代表用户视角所以又高于这两者,这个位置决定非常多价值创造过程里的约束和方法。


这个价值创造过程对AI有什么特别的呢?


这正好可以从价值创造本身和受到的约束两个角度来展开。


第一是你价值创造的完整性。到底有没有用。


第二是你受到的刚性约束。技术的应用边界和场景内定的游戏规则都影响你的产品到底在实际中有没有相对价值。


第三则是潜在的价值实现通路上有那些约束。要干100年显然没那么多钱给你干。


可以用这个视角来看当前的AI各种产品。



价值创造的完整性


AI带给人一种所有产品要重做的感觉,所以似乎那里都是机会,但其实并不是。


我们这世界的产品格局在互联时代已经被塑造过一遍了。越是和过去的贴近,越是属于原来的阵营,AI从形成应用力量的角度看,还是过于弱小,不具备这类颠覆的力量。AI能把抖音重做么?在这里产品整个的权重是100的话,AI的权重可能只有不到10。


AI确实能做些新的事儿了。在新的构想力量又分两类:


一类就是Copilot这类生产力工具,这类工具越大微软这类巨头盯的越紧。从技术角度这是个新产品,但从场景角度看,这就是新的Word,不可能有机会。


不干局部就得干整体,另一类则和对岗位人的置换有关。你是不是完整能把客服、外呼等工作做了。如果可以?那价值创造的模型就非常简单,会变成就业市场有多少价值,打个折。


在这个领域上,最核心的是什么呢?这两类产品的区别是什么呢?


是价值创造的完整性。


后者必须在场景下解决全部问题,如果解决不了,那就是负担。比如招聘的时候能不能给个职位描述就把人招来了。


可以画张图描述上面的产品分布:



技术的应用边界与场景游戏规则


技术应用边界是说这项技术本身在落地过程中有什么是短期不太可能解决的,进一步就导致要把他们看成前置条件。


显然的幻觉问题非常难解决,另一个则是覆盖场景越复杂,其结果的不确定性也就越高。再简单点,同样的prompt它结果不总是一样。而显然的不是所有场景都匹配这种不确定性。这种内置属性冲突越厉害,产品挂的可能性就越高,并且会陷入苦战。比如用大模型做税务。


这部分正体现上面说的用技术视角来看技术和用产品视角来看技术的差异。我们再举个更具体的例子:


以技术应用边界和场景匹配度的角度来看技术,大模型那部分能力最优秀呢?


我个人觉得是编程,编程能力能打85分,十分契合。


至于经常说的内容创作,也就70多分。


为什么这么说呢?


假如你是个程序员,它能帮你写程序么?对于初中级程序员而言,回答特别肯定。能。但也很不幸,这两类岗位未来很可能直接就挂了。所以这是85分。


假如你是自媒体,它能帮你做创作么?答案是不能,虽然有些帮助。


之前把这部分特征总结成下图:



价值实现通路上的约束


理论上只要无限的资源,那任何一个创造价值的产品就都可以成立,但我们没有无限资源。


所以商业实现通路的考量是产品起点上的一个部分。到底要历经那些关口,消耗多少资源才可能把水烧开?这是产品成立不成立的关键,也是产品要考虑的


这里最典型例子就是是纯粹数字的产品,软硬融合产品还是带机械结构的产品,越往后越重。纯数字可以以月来计算闭环时间,软硬融合则得是年了,没3个版本(iPhone差不多是到4才大成)稳定不下来。机械类的恐怕得以3年5年计算了(汽车一个新车型过去需要3年,特斯拉今天如日中天,但不要忘记这公司成立已经20多年了,也就这6~7款车型)。


之前把这部分特征总结成下图:



工具的工具


各种产品中还有个小分类,就是英伟达为代表的工具的工具。为了支撑AI技术进展,需要数据、需要GPU等。但这地儿如果单纯从投入产出上看,属于风险收益比比较最差的地方,因为投入注定很大,但收益高度不确定。现在似乎有机会,但其实和绝大部分人关联不大。对人、资本要求都太高了,基本上是大厂的自留地,能做很可能是真的幻觉。


小结


上面是对AI产品的一些总结和思考,不一定对,如果非用一句话概括上面要说的,那就是:少谈点技术,多想点产品。对于小公司,产品不单是产品,也是战略的具象化。




文章来自微信公众号 ”琢磨事“,作者 老李话一三







关键词: AI , AI产品 , AI落地
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner

2
prompt

【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。

项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md

在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0