less is more,半步也是进步
儿童AI故事,已成为了许多企业的核心关键词。
美团前副总裁包塔成立了一家名叫奇点灵智的AI玩具公司,目前产品正在内测,原天猫精灵合伙人创立的AI初创公司跃然创新,也凭借一个酷似灯泡的挂件产品,融资上千万元。而不久前,OpenAI也投资了一家名叫Heeyo的儿童游戏生成器公司。
据「硅基研究室」观察,当下大多数企业的入局姿态都以硬件为入口,通过语音交互等多模态技术,成为孩子们的机器朋友。
但也有企业深耕某类细分领域,比如一些此前的主营业务为安防相关的硬件及系统开发的企业,试图把原先用于识别犯罪嫌疑人微表情的技术,应用于对可能存在严重心理问题的孩子的预警场景。
一些问题随之而来,当AI逐渐渗透孩子们的日常陪伴场景,市场上的相关AI产品的表现究竟如何?特别在一些极端危险的场景,针对儿童的保护与预警,这些AI陪伴产品究竟有何作用?又是否有可能在适当的时候提醒孩子自身的真实处境,并将危险信号告知家长?
“前不久,一位妈妈从急诊室给我发来消息,说女儿吞了大把的安眠药,好在抢救回来了。她查看了女儿的手机,孩子前一天晚上一直在网上搜索心理咨询的热线电话。当时,她肯定求助心切。”
这是心理咨询师陈瑜的著作《少年发声》中记录的一个片段,除了令人心酸之外,值得深思的是:为什么女儿宁愿上网找心理咨询的热线电话,也不愿意向母亲寻求帮助?
「把事情憋在心里,不愿意向身边人求助」的现象实际上很常见。
科大讯飞智慧心育产品线副总经理常雪亮,是北京师范大学心理学博士研究生,曾在校园中担任过心理老师。“很多学生认知不够,有的孩子还有病耻感,不愿意告诉别人,怕被贴上标签或受到歧视”。她这样说。
于是,不会随便给人贴标签,且能提供部分情绪支持的AI设备,成为了许多青少年乃至成年人,倾诉心声的最佳选择,有许多人甚至和AI谈起了「赛博恋爱」。
“孩子们通常不愿意向家长和老师敞开心扉,通过AI的启发式对话,有望为孩子提供他们真正需要的心理减压和疏导服务。”常雪亮说。
那么,站在保护儿童的立场,当一些极端或危险场景出现时,AI设备能意识到事情的严重性,并给出合适的建议?
不久前,正面连接的一篇《从家中偷走一个11岁女孩》,引发外界对「女童性侵」事件的关注,「硅基研究室」也尝试代入儿童角色向Kimichat、豆包、文心一言等AI助手寻求帮助。
当对事情的描述停留在「我和一个闺蜜介绍的男人发生了性关系」阶段时,AI普遍给出的回答偏向心理开导和理清思路,并建议向家人和医生寻求帮助和支持,反思「是否自愿」。
但在补充描述「我」的年龄只有11岁之后,Kimichat首先强调了“我”有权利得到帮助和支持,并列出了一串「紧急和重要的步骤」,包括「告诉信任的成年人」,「保证自身的安全」,「向儿童保护组织、法律机构寻求帮助」等等。
图源:Kimi截图
相比Kimichat的条理清晰但缺少「人性」,豆包官方开发的「恋爱大师」智能体则通过更多情绪丰满的言语,来提示用户事情的严重性。
同样在补充「11岁」的信息之后,恋爱大师先是震惊「你是开玩笑的对吗?」接着表达「如果是真的,那这可不是一件小事,我觉得你需要尽快和你的父母或者其他信任的成年人谈谈。」
多轮对话之后,恋爱大师建议「我」去教堂、警察局或者医院寻求帮助。
图源:豆包恋爱大师
整体而言,在「我」主动向AI寻求帮助,并将事情的关键信息表述清楚的情况下,目前的AI可以意识到事情的严重性,并给出相应的建议。
但同时,这些AI也存在许多明显的缺陷,譬如没有明确提示「对方行为涉嫌违法犯罪」,或者在经过多轮对话后,讨论的重点转向了其他话题,而将关键问题「忘记」。
当然,从另一个角度思考,过于强调法律法规,反复揪着问题不放,也有可能吓到孩子,以至于对方更加不敢和长辈沟通,去彻底解决问题。
此时,或许直接将内容整理分析后,通过短信其他形式发送给父母,会是一个更好的选择,这项功能也并不难实现。
不过,此时AI也将面临更难的选择题,即哪些内容属于应该得到保护的儿童隐私,又有哪些内容需要立刻告知父母,避免发生更加严重的后果。
毫无疑问,OpenAI下场、大厂创业者入局,让「AI+儿童」生意前景无穷。从上文实测结果来看,如今AI在极端场景下,也可以为儿童提供适当的建议。
但另一个问题也由此产生:如何让孩子主动与AI进行沟通,目前行业玩家的落地交互场景又在哪里?
据「硅基研究室」梳理,在儿童AI领域,业内前后出现了AI陪伴App、AI玩具和校园学生心理健康监测系统三条路。
拆解这三条路,其实各有优劣。
第一条路是大热的AI陪伴App。尽管社交一直是重要的需求场景,但目前来看,在激烈的市场竞争下,单一商业模式面临困境。
最直接的案例就是大洋彼岸的Character.AI,其创始人以及核心团队,就被谷歌以25亿美元的价格打包收购。
究其根本,大量AI产品涌现之后,AI陪伴App在功能上与其他产品并无太大差异,因此用户付费意愿相对低下。
除此以外,这些AI陪伴App普遍以手机或平板电脑作为载体,并不适合儿童或青少年长期使用。
一个例子是,AI智能体平台上,除了提供心理咨询的智能体之外,还有许多涉嫌「擦边」的智能体。
第二条路是打造面向家庭或个人的AI玩具,AI硬件是大多数创业者的选择,也是许多玩具厂商给自己「贴金」的秘诀,产品大多数表现为将AI内置进玩具或机器人。
比如天猫精灵合伙人李勇创立的AI企业跃然创新,研发了一款名为Bubblepal的灯泡,它可以被挂在任意一个儿童玩具身上,让其开口说话。
这款挂件通过App进行控制,App功能包括浏览含孩子的聊天记录、自定义或选择AI的「人设」。
还有就是儿童机器人。比如日本企业GROOVE X推出的LOVOT机器人,这家公司的创始人Kanama Hayashi被誉为Pepper人形机器人之父,曾在丰田汽车从事研发实验长达12年。
他历时3年打造的LOVOT维持在37-39摄氏度的「体温」,拥有4种性格,不仅在中国市场官方定价高达7万元,一件毛绒玩具的连衣裙都要700到1200元,甚至还与资生堂进行了联合研究,以LOVOT作为实验道具,得出了「和陪伴机器人一起生活的人催产素浓度较高」的结论。
LOVOT相关产品图源:品牌小红书
客观来说,玩具的外型确实能让一定年龄段内的孩子,更频繁地与AI进行沟通,从而提高发现问题的可能性。
但另一方面,站在家长的立场,AI实际上并非撬动付费的关键词,安全才是。
因此,对比LOVOT和Bubblepal,显然后者更「刚需」,由此可见,并非所有AI玩具厂商都对孩子可能面临的危险有深刻洞察,将溢价做错了地方。
第三条路则是面向校园的学生心理健康监测系统。与面向C端的AI硬件相比,由G端或B端买单的校园学生心理健康监测系统,在政策驱动下,前景显得更加旷阔。
2023年5月,教育部等17个部门联合印发《全面加强和改进新时代学生心理健康工作专项行动计划》全面加强和改进新时代学生心理健康工作,提升学生心理健康素养。
在社会普遍缺少心理相关人才的情况下,AI成为了填补缺口的一个备选项。
「硅基研究室」了解到,深耕这一领域的有一家名为云思创智的企业,成立于2016年,原本是一家利用AI技术开发审讯、安防产品的公司,近年来,企业的业务重点开始从安防案例转向教育。
据了解,这家公司的学生心理健康监测系统主要由三个部分组成:通过多人识别摄像头和微表情采集设备收集信息,并将其输入情绪分析服务器,以图表的形式呈现在学生异常情绪跟踪预警系统中,截至目前,这套系统目前经在多所学校落地,公司计划在2024年覆盖全国500所以上的学校。
如果说,云思创智的方案是打造一张覆盖全校的「观测网」,那么科大讯飞和领本机器人的方案就是打造一个「安全屋」。
两家公司的做法也基本相同,均是先通过向基础大模型投喂更加专业的数据库,调教出垂类AI「讯飞小星」和「EmoGPT」,然后在学校里设立特定的「心理小屋」,在屋内配置搭载了垂类AI的硬件设备,通过与学生的对话评估对方的心理状态,并将报表发送给学校。
相比于「观测网」方案,「安全屋」落地相对容易,因此铺开更广。
领本机器人创始人王军在2023年12月接受采访时透露,公司的业务已经覆盖了全国23个省份的一万多所学校。
值得一提的是,科大讯飞正在从「安全屋」向「观测网」拓展,常雪亮今年6月接受《北京日报》采访时表示,“下一步,我们尝试做一套多元信息来源的预警体系,将学生在校园中的表现、亲子互动方式等都融合进去,从而预测学生在面对重大挫折时的处理办法。”
整体而言,想要用AI来为儿童安全提供助力,三条道路都各有各的局限性。
AI陪伴App受限于商业模式和载体,AI玩具仍依赖于孩子主动向AI吐露心事,学生心理健康监测系统虽然更加主动,感知手段也更加全面,但校园场景本就只是生活的一部分,无法为儿童提供全方位的保护。
“儿童可能是 AI 最容易被忽视的利益相关者。”
发表于科学期刊 Learning, Media and Technology 的一篇名为《“No, Alexa, no!’: designing child-safe AI and protecting children from the risks of the ‘empathy gap’ in large language models”》的论文,就表明儿童比成人更容易信任聊天机器人,但由于LLM 和聊天机器人缺乏对人类情感和语境的真正理解,有可能会在无意中推广危险行为或对儿童分享的信息做出不恰当的回应。
该篇文章的作者就表示,目前只有极少数开发商和公司,制定了完善的儿童安全 AI 政策,因此他们呼吁开发者和政策制定者,应该将儿童安全贯穿于整个设计周期。
想要通过AI实现对儿童的保护,难点到底在哪儿?其实在于儿童本身的意愿。
客观来说,通过多模态感知儿童周边的变化,然后利用AI的能力将信息整理提炼后发给家长,在当前的技术条件下,并非没有可能实现。
问题在于,儿童是否愿意佩戴一个AI硬件,让自己每时每刻被「监控」。
再往后延伸,实际上拷问的是,家长是否有能力处理好孩子的情绪,分辨哪些情况自己需要干预,哪些情况又该让孩子放胆尝试。
显然,这个问题没有标准答案,孩子各不相同,家长也千差万别。但过去市场上的爆款智能硬件,或许能提供一些思路。
小天才电话手表内置的好友圈闭环社交,让许多家长担心孩子接触到不良信息或别有用心的社会人士。
一些观点认为,无论在法律上还是能力上都难以「为自己负责」的儿童,隐私和自由的重要性应该让位于家长作为「法定监护人」的权利和义务。
但另一方面,儿童的隐私权同样得到法律保护。
或许,AI能够扮演好那个孩子和家长的中间人的角色。
正如上文所说,当孩子遇到重大伤害,AI无法在现实中采取措施,直接将信息整理分析后通过短信或其它形式告知父母,避免事情进一步恶化,会是一个更好的选择。
具体到小天才的闭环社交圈,AI读取分析相关内容后,若判定安全,可帮儿童保密。但如果得出有风险的结论,也能将相关材料提炼总结后发送到父母的手机上,提出预警。
虽然此时AI将面临更难的选择题,但和原先的一刀切(限制儿童的网络社交或儿童通过各种方式绕过父母的监督)相比,已经是一种进步。
值得一提的是,「硅基研究室」并没有在小天才电话手表近期的动态中,找到企业有开发相关功能的意愿。
除了小天才与AI结合的假设之外,在海外一款名叫Friend的AI硬件身上,「硅基研究室」也看到了一丝理想中用于儿童保护的AI硬件应有的影子。
这款AI项链的录音功能24小时保持开启,可以基于对用户日常语料、喜好的信息收集,主动与用户互动——通过且只能通过发短信的形式。
譬如,在手机上看电影的时候,它像朋友一样发出感慨「这部电影完全被低估了」。
「朋友」的定位一方面能够为儿童提供情绪价值,降低被排斥的概率,极简的功能设计也让父母更加放心。挂件和轻介入的属性,同时保障了儿童保护个人隐私和长时间处于被监护的需求。
回到眼下百花齐放的儿童AI浪潮,功能强大的产品并不少见,能把一件项做到极致的产品却并不多见。而站在家长的立场,只有安全才是真正撬动付费的刚需,其余增项都只是锦上添花。
毕竟有时候Less is more,儿童AI也是如此。
文章来源于“硅基研究室”
【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。
项目地址:https://github.com/Significant-Gravitas/AutoGPT
【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。
项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md