ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
高通万卫星:终端侧生成式AI时代已经来临|中国AIGC产业峰会
5231点击    2024-04-21 23:07

AI手机、AI PC硬件新物种正崭露头角。


高通作为技术及芯片厂商,所提供的产品和解决方案正在推动AIGC相关产业的规模化扩展。


在本次AIGC产业峰会上,高通公司Al产品技术中国区负责人万卫星分享了这样的观点:


2024年,高通会重点支持多模态模型以及更高参数量的大语言模型在端侧的部署。而高通顶尖的异构计算设计使AI能力贯穿整个SoC,将CPU、GPU和NPU的能力都充分释放给开发者。
同时,借助高通AI Hub,开发者可以轻松地开发自己的创新AI应用,就 像“把大象塞入冰箱”一样简单。

为了完整体现万卫星的思考,在不改变原意的基础上,量子位对演讲内容进行了编辑整理,希望能给你带来更多启发。


中国AIGC产业峰会是由量子位主办的行业峰会,20位产业代表与会讨论。线下参会观众近千人,线上直播观众300万,获得了主流媒体的广泛关注与报道。


话题要点

  • 基于图像语义理解的多模态大模型发展是当下的重要趋势。
  • 芯片厂商如何满足生成式AI多样化的要求。
  • 虚拟化身AI助手,充分利用高通异构计算能力的端到端用例解析。
  • 利用高通AI Hub进行应用开发的过程就像“把大象塞进冰箱”一样简单。

以下为万卫星演讲全文:


终端侧生成式AI时代已经来临


我们相信,终端侧生成式AI时代已经来临。


高通在2023年10月发布的第三代骁龙8和骁龙X Elite两款产品上,已经实现了大语言模型完整地在端侧运行,并且已经或即将为众多AI手机和AI PC提供支持。


在手机方面,去年年底和今年年初,包括三星、小米、荣耀、OPPO和 vivo 等众多OEM厂商发布的Android旗舰产品,都已经具备了在端侧运行生成式AI的能力。


基于图像语义理解的多模态大模型发展是当下的重要趋势。


在今年2月的MWC巴塞罗那期间,高通也展示了全球首个在Android手机上运行的多模态大模型(LMM)


具体来说,我们在搭载第三代骁龙8的参考设计上运行了基于图像和文本输入、超过70亿参数的大语言和视觉助理大模型(LLaVa),可基于图像输入生成多轮对话。


具有语言理解和视觉理解能力的多模态大模型能够赋能诸多用例,例如识别和讨论复杂的视觉图案、物体和场景。


设想一下,有视觉障碍的用户就可以在终端侧利用这一技术,实现在城市内的导航。同时,高通在骁龙X Elite上也演示了全球首个在Windows PC上运行的音频推理多模态大模型。


接下来看看高通作为技术及芯片厂商,如何满足生成式AI多样化的要求。


不同领域的生成式AI用例具有多样化的要求,包括按需型、持续型和泛在型用例,其背后所需的AI模型也是千差万别,很难有一种处理器可以完美适用所有生成式AI用例或非生成式AI用例。


比如,有些用例需要进行顺序控制,对时延比较敏感;有些用例是持续型的,对算力和功耗比较敏感;有些用例需要始终在线,对功耗尤其敏感。


高通公司推出的高通AI引擎就是领先的异构计算系统,它包含多个处理器组件,包括通用硬件加速单元CPU和GPU、专门面向高算力需求的NPU,以及高通传感器中枢,它们在AI推理过程中扮演不同角色。


前面提到的顺序执行的按需型任务,可以运行在CPU或GPU上;对AI算力要求比较高的持续型任务,例如影像处理、生成式AI等,都可以运行在NPU上;对于需要始终在线、对功耗尤其敏感的任务,可以运行在高通传感器中枢上。


简单介绍一下高通NPU的演进路线,这是非常典型的由上层用例驱动底层硬件设计的案例。


2015年及更早之前,AI主要用于一些比较简单的图像识别、图像分类用例,所以我们给NPU配置了标量和向量加速器。


2016—2022年间,计算摄影概念开始流行,我们把研究方向从图像分类转移到了AI计算摄影及视频等等,包括对自然语言理解和处理的支持,以及对Transformer模型的支持,我们给NPU硬件在标量和向量加速器的基础之上,增加了张量加速器。


2023年,大模型热度很高,我们在业内率先完成了端侧的大模型支持,给NPU配置了专门的Transformer加速模块。


2024年,我们会重点支持多模态模型,以及更高参数量的大语言模型在端侧的部署。


接下来为大家更深入的介绍高通Hexagon NPU。


第三代骁龙8上的Hexagon NPU不仅进行了微架构升级,还专门配置了独立的供电轨道,以实现最佳的能效。


我们还通过微切片推理技术支持网络深度融合,获取更极致的性能。


此外Hexagon NPU还集成了专门为生成式AI打造的Transformer加速模块,更高的DDR传输带宽,更高的主频等先进技术。


所有这些技术相结合,使得Hexagon NPU成为面向终端侧生成式AI的行业领先NPU。


接下来看一个具体案例,虚拟化身AI助手——这是非常典型的充分利用高通异构计算能力的端到端用例。


它包括众多复杂AI工作负载,首先需要自动语音识别(ASR)模型负责将语音信号转成文本,这部分工作负载可以运行在高通传感器中枢上;接下来会由大语言模型负责处理文本输入,生成回复和对话,这部分工作负载可以运行在NPU上;再通过文本生成语音(TTS)模型把文本输出转变成语音信


号,这部分负载可以运行在CPU;最后由GPU模块负责基于语音输出同步完成虚拟化身渲染,这样就能得到一个端到端的用语音来交互的虚拟化身助手用例。


前面介绍了硬件技术,接下来分享一下高通平台的AI性能。


在智能手机领域,第三代骁龙8不管是在鲁大师AIMark V4.3、安兔兔AITuTu这些AI基准测试的总分方面,还是在MLCommon MLPerf推理:


Mobile V3.1的具体模型推理性能测试方面,表现都远超于竞品。在PC方面,骁龙X Elite在面向Windows的UL Procyon AI推理基准测试中,表现也超过了基于X86架构的竞品。


高通除了提供领先的硬件平台设计之外,也推出了一个跨平台、跨终端、跨操作系统的统一软件栈,叫做高通AI软件栈(Qualcomm AI Stack)


高通AI软件栈支持所有目前主流的训练框架和执行环境,我们还为开发者提供不同级别、不同层次的优化接口,以及完整的编译工具链,让开发者可以在骁龙平台上更加高效的完成模型的开发、优化和部署。


值得强调的是,高通AI软件栈是一个跨平台、跨终端的统一解决方案,所以开发者只要在高通和骁龙的一个平台上完成模型的优化部署工作,便可以非常方便的将这部分工作迁移到高通和骁龙的其他所有产品上。


今年MWC巴塞罗那期间,高通发布了非常重量级的产品,高通AI Hub(Qualcomm AI Hub)。该产品面向第三方开发者和合作伙伴,可以帮助开发者更加充分的利用高通和骁龙底层芯片的硬件算力,开发出自己的创新AI应用。


利用高通AI Hub进行应用开发的过程就像“把大象塞进冰箱”一样简单。


第一步,根据用例选择所需模型。


第二步,选择需要部署的高通或骁龙平台。


第三步,只需要写几行脚本代码,就可以完成整个模型部署,在终端侧看到应用或算法的运行效果。


目前,高通AI Hub已经支持约100个模型,其中有大家比较关心的生成式AI模型,包括语言、文本和图像生成,也包括传统AI模型,例如图像识别、图像分割,自然语言理解、自然语言处理等等。具体的模型信息,欢迎大家访问高通AI Hub网站进行查询。


最后总结一下高通的AI领先优势。


第一,高通支持实现无与伦比的终端侧AI性能。


第二,高通具备顶尖的异构计算能力,使AI能力能够贯穿整个SoC,将CPU、GPU、NPU和高通传感器中枢的能力都充分释放给应用开发者。


第三,高通提供可扩展的AI软件工具,即前面提到的高通AI软件栈等。


最后,高通可以支持广泛的生态系统和AI模型。


高通AI Hub


AIHUB.QUALCOMM.COM


文章来自微信公众号“量子位”,作者:量子位编辑部



关键词: AI芯片 , GPU , AI , AI助手 , AI Hub , 高通
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
RAG

【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。

项目地址:https://github.com/microsoft/graphrag

【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。

项目地址:https://github.com/langgenius/dify


【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。

项目地址:https://github.com/infiniflow/ragflow/tree/main


【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目

项目地址:https://github.com/phidatahq/phidata


【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。

项目地址:https://github.com/TaskingAI/TaskingAI

2
无人直播

【开源免费】VideoChat是一个开源数字人实时对话,该项目支持支持语音输入和实时对话,数字人形象可自定义等功能,首次对话延迟低至3s。

项目地址:https://github.com/Henry-23/VideoChat

在线体验:https://www.modelscope.cn/studios/AI-ModelScope/video_chat


【开源免费】Streamer-Sales 销冠是一个AI直播卖货大模型。该模型具备AI生成直播文案,生成数字人形象进行直播,并通过RAG技术对现有数据进行寻找后实时回答用户问题等AI直播卖货的所有功能。

项目地址:https://github.com/PeterH0323/Streamer-Sales