ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
为避免员工「Manner化」,他们在这样用AI
9552点击    2024-07-01 13:16

最近,Manner 咖啡一天两起冲突事件引来大量讨论和关注。 


众多报道帮助我们看到了「失控」咖啡师背后过载的工作量和精神压力。 


除了咖啡师这类相对新兴职业,电话客服也是具有代表性承受了较多精神和情绪压力的职业。 



而为了避免客服工作人员走向崩溃,现在有好些大公司都在尝试用 AI 来「缓冲」工作所带来的情绪冲击。 


从情绪缓冲到工作助手,AI 都能做什么? 


「顾客就是上帝」这句「金句」,让众多服务业从业人士痛苦不已。而在向来重视「礼节」文化的日本,这句话就变得更沉重。 


据日本劳工组织 UA Zensen 一份调查指出,在 3.3 万名接受调查的服务或零售业从业者中,将近一半人在过去两年里都曾经历过顾客骚扰,其中包括语言骚扰、威胁甚至出现要求员工下跪鞠躬道歉的情况。 



作为应对,日本第三大电信运营商软银正在为客服人员研发一项技术,类似一个「礼貌滤镜」 —— 将暴躁的客人话语改成平缓语气,然后再传达给客服,减少客服接受情绪冲击的压力。 


研发这项技术的 Toshiyuki Nakatani 表示,他从电视节目得知客服人员经常要受到顾客骚扰,心想,如果那些愤怒的客户的声音听起来像日本动漫《鬼太郎》里的「眼珠老爹」,是不是就没那么糟糕了? 


《鬼太郎》里的「眼珠老爹」 


概念简单,但做起来还是得从几个方面入手。 


首先,要教 AI 识别话语中的情绪。 


为此,软银聘请了 10 位专业演员,他们会对超过 100 句话语进行多种情绪版本的演绎 —— 话语不变,换着声调和语气来演说,制造一批超过上万条语音训练素材。 


当 AI 侦查到顾客有强烈的情绪,AI 就会把这些话语的语气「平缓化」 —— 譬如,女性的高音调会被降低音调,而男性的低音,则会被调得更高,就是让一切变得柔和一些。 


不过,如果将语音完全「去愤怒化」,软银又担心客服人员不知道顾客在生气,进而变得越来越生气,所以 AI 还是会留下一点可辨识的生气语调。 


除了调整语气之外,这个系统还有另一重要功能在于决定何时中断对话。 


软银说,不少客服人员在听骚扰语言的同时,更崩溃的还是遇上不肯挂电话的客户,譬如坚持要求道歉的。 


在研发中的 AI 工具也会判断对话是否太长或者语言是否太过份,如果是的话,AI 会向客户发出一个信息,像是:「我们很遗憾告诉你,我们将结束这次服务。」 

软银表示,这项几乎预计将于 2025 财年正式推出。 



美国银行 First Horizon 则将「情绪识别」指向了客服人员本身。 


一个名为 Thrive Resets 的程序,可以通过客服人员言语来判断他们的情绪不适感是否已经达到一个特定程度。 


如果是的话,系统会自动将当前客服对话转接给另一位接线员,并开始为前一位客服人员播放一支伴随着音乐的家庭或假期照片剪辑而成的「放松视频」,上面还得配上「励志语录」,并指引员工深呼吸来调整情绪。 


员工可以自己定制播放的音乐和照片内容。 



《辛普森一家》编剧想说:我们早就想到过了! 


First Horizon 表示,他们做过了两次测试: 


第一次邀请了 28 位客服人员和 2 位监督人员,结果表示员工的过劳程度降低了 13%,客户满意度也提升了 2%。 


第二次测试囊括了 160 名客服和 14 位监督人员,员工过劳程度降低了 20%。 



对比上面两个「直面情绪」的功能,微软和美国电信公司 AT&T 的 AI 创新更偏「工具化」。

 

微软打造了一款将于 7 月 1 日推出的软件 Dynamics 365 Customer Service,用 AI 协助客服人员快速检索合适的解决方案,主要用来替代缓慢庞大的传统客服系统。微软的 Jeff Comstock 说道: 


不幸的是,服务业充斥着苦差事。他们有一大堆工具,想要解决最基本的问题都要走非常繁复的流程,体验非常糟糕。 


而在 AT&T,从去年开始,AI 就承担了原本由客服人员做的「笔记」工作 —— 在客服人员和顾客对话过程中,AI 就会自动将两人对话转录未文本。 


转录的同时,AI 也会就两人对话内容提供一定的建议。 


总的来说,微软和 AT&T 主要还是通过减轻客服人员工作量来降低过劳几率。 


技术发展路上,承受压力的大多还是人类 



将人和情绪分离的最终状态,是《人生切割术》中的模样吗? 


有评论指出,这些工具现在虽只是为了减轻客服人员的工作压力,但这些「辅助」也在变相训练 AI 来替代人类工作人员。 


这不无道理,甚至已经是一条相对拥挤的赛道,市场价值高达 28 亿美元。 


无论是 Google、亚马逊这类大公司,还是像 Parloa、Retell AI、Cognigy、Decagon 这类名字相对陌生的创业公司,都在盯着客服中心的自动化市场。 


和传统的聊天机器人相比,基于生成式 AI 技术的聊天机器人在处理工作上也许能更灵活,但在机器无法完成的部分,兜底的很有可能只能是人类。



前段时间,First Horizon 的 AI 系统公布时,就引来了大量批评——「简直就是反乌托邦噩梦」。

 

这也可能是让 First Horizon 最终决定不会采用这个系统的原因之一,毕竟当初官方新闻稿里都在宣传这个系统的有效性。 


在众多讨论中,资深科技作者 Brian Merchant 指出了一个重要的问题: 


为什么客服人员在接到顾客的电话时,大多时候都要面对巨大的心理压力和承受对方的愤怒?因为这些顾客在最终和一个人类对话之前,已经经历了漫长的「自助选择」,也就是已经被上一代的客服自动化产物惹怒了。 


First Horizon 在当初的新闻稿中指出,其客服服务中,已经有 85%-95% 的顾客电话都是「自助服务」里面完成了服务。 


换言之,剩下那 15%-5% 最终结还是走到人工服务的顾客,也已经和自动回复折腾了好一段时间了。 


只要一接通,人工客服人员就要马上接住被机器和系统惹怒的顾客。 



韩国电影《下一个素熙》讲述了客服工作人员的压力如何将人压垮 


软银打造的「情绪屏障」也许有机会让本来要「崩溃」的客服工作人员停留在「有压力」阶段,但大家都知道顾客的愤怒并不完全只是顾客自身的问题。 


正如在「Manner 事件」中,最终触发店员崩溃的冲突,从来不只是那个当下的问题,而是隐藏在一环接一环的「降本增效」中。 

 

本文来自微信公众号“爱范儿”(ID:ifanr),作者:关注AI应用的