
手机流畅处理128K长文本,vivo端侧新算法突破内存限制 | ACL 2025
手机流畅处理128K长文本,vivo端侧新算法突破内存限制 | ACL 2025在端侧设备上处理长文本常常面临计算和内存瓶颈。
在端侧设备上处理长文本常常面临计算和内存瓶颈。
vivo自研大模型用的数据筛选方法,公开了。
基于规则的强化学习(RL/RFT)已成为替代 SFT 的高效方案,仅需少量样本即可提升模型在特定任务中的表现。
构建机器人的「眼睛」和「大脑」,vivo 其实早有准备。
近年来,AI成为了国内手机市场上的最大热点。根据市研机构IDC的定义,AI手机有几个关键指标和特性:算力大于30TOPS的NPU、支持生成式AI模型的SoC、可以端侧运行各种大模型。而就在过去一年,国内AI手机市场迅猛发力。华为、小米、vivo、OPPO、荣耀等手机厂商,均已迅速在旗下产品上接入各自的云端或端侧AI大模型。
最近国内外的手机厂商和 AI 公司纷纷发布了手机 AI 智能体相关产品,让曾经的幻想逐渐有了可行性。
Scaling Law不仅在放缓,而且不一定总是适用! 尤其在文本分类任务中,扩大训练集的数据量可能会带来更严重的数据冲突和数据冗余。
BlueLM-V-3B 是一款由 vivo AI 研究院与香港中文大学联合研发的端侧多模态模型。该模型现已完成对天玑 9300 和 9400 芯片的初步适配,未来将逐步推出手机端应用,为用户带来更智能、更便捷的体验。
在当今科技飞速发展的时代,人工智能(AI)无疑是最具变革性的力量之一。从智能语音助手到图像识别技术,AI 已经渗透到我们生活的方方面面。
近年来,大语言模型(Large Language Models, LLMs)的研究取得了重大进展,并对各个领域产生了深远影响。然而,LLMs的卓越性能来源于海量数据的大规模训练,这导致LLMs的训练成本明显高于传统模型。