ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
苹果为什么要用「小模型」?
4865点击    2024-07-02 18:31

在WWDC 2024上,苹果重新定义了AI——Apple Intelligence。


这是一款深度集成到iOS 18、iPadOS 18和macOS Sequoia中的个人智能系统。


与其他科技大厂不同的是,「苹果牌」AI并没有奉行「越大越好」的宗旨。



相反,苹果的态度更加务实,优先考虑用户体验,更强调AI模型的定制化。


将生成式AI无缝融入操作系统,——从某种意义上来说,这是一种非常「苹果」的做法。


Apple Intelligence由多个功能强大的生成模型组成,这些模型专门用于用户的日常任务,可以即时适应用户当前的活动。



Apple Intelligence内置的基础模型针对用户体验进行了微调,例如编写和优化文本、摘要、确定通知的优先级、为对话创建有趣的图像,以及简化跨App的交互。


苹果倾向于利用设备端的小模型搞定这些事情,当然用户也可以选择使用ChatGPT等第三方的服务,但这时数据方面的责任就跟苹果没有关系了。


苹果着重介绍了其中两个模型:一个约30亿参数的设备端语言模型,以及一个更大的基于服务器的语言模型(可通过私有云计算在苹果服务器上运行)。


Keep Small


苹果基础模型概览


预训练


苹果的基础模型是在AXLearn框架上训练的。



AXLearn是苹果在2023年发布的一个开源项目,它建立在JAX和XLA之上,使苹果能够在各种训练硬件和云平台上以高效率和可扩展性训练模型,包括TPU、云端和本地GPU。


苹果结合使用数据并行、张量并行、序列并行和完全分片数据并行 (FSDP)来沿数据、模型和序列长度等多个维度扩展训练。


苹果使用网络爬虫AppleBot来收集公开可用的数据,——如果Web发布者不希望自己的内容被Apple Intelligence用于训练,苹果也提供了各种粒度的控制方案。



苹果表示,在训练基础模型时,从不使用用户的私人个人数据或用户交互,并且苹果应用过滤器来删除互联网上公开的个人身份信息(比如社会保险和信用卡号)。


除了过滤之外,苹果还通过数据提取、重复数据删除和基于模型的分类器的应用,以识别高质量的文档。


后处理


众所周知,数据质量对于模型的成功至关重要。


苹果在训练管道中使用混合数据策略,结合人工注释和合成数据,并执行彻底的数据管理和过滤程序。


苹果在后处理阶段开发了两种新颖的算法:


1. 拒绝抽样微调算法(rejection sampling fine-tuning algorithm);

2. 基于人类反馈的强化学习(RLHF)算法,采用镜像下降策略优化和留一法优势估计器(leave-one-out advantage estimator)。



这两种算法可以显著提高模型的指令遵循质量。


优化


除了确保生成模型具有强大功能外,苹果还使用了一系列创新技术在设备上和私有云上对其进行优化,以提高速度和效率。


设备端模型和服务器模型都使用分组查询注意力(grouped-query-attention),来优化其推理性能。



苹果使用共享的输入和输出词汇表,来降低内存需求和推理成本,保证了共享嵌入张量的映射没有重复。


设备端模型使用49K的词汇大小,而服务器模型使用100K的词汇大小。


对于设备端推理,苹果使用low-bit palletization,来满足必要的内存、功耗和性能要求。



为了保持模型质量,苹果开发了一个使用LoRA适配器的新框架,混合使用2比特和4比特的配置策略(平均每个权重3.5比特),以实现与未压缩模型相同的精度。


此外,苹果还使用交互式模型延迟和功耗分析工具Talaria来更好地指导每个操作的比特率选择。



利用激活量化和嵌入量化,可以在苹果的神经引擎上实现高效的键值缓存(KV cache)更新。


通过上面的这些优化,iPhone 15 Pro能够达到约0.6毫秒的延迟,以及每秒30个token的生成速率。


适配器


苹果的基础模型针对用户的日常活动进行了微调,可以动态地专注于手头的任务。


做法是将小型神经网络作为模块(适配器,adapter),插入到预训练模型的各个层中,以实现针对特定任务的微调。



此外,苹果调整了注意力矩阵、注意力投影矩阵和前馈网络中的全连接层,以适应Transformer架构的的解码层。


通过仅微调适配器层,基本预训练模型的原始参数保持不变,从而保留模型的一般知识,同时又能支持特定任务。


Apple Intelligence包含一组广泛的适配器,这是扩展基础模型功能的有效方法。



苹果使用16位表示适配器参数的值,对于30亿个参数的设备模型,16级适配器的参数通常需要10兆字节。


适配器模型可以动态加载、临时缓存在内存中并进行交换,保证了操作系统的响应能力。


性能评估


因为用户体验是最高优先级,所以在对模型进行基准测试时,苹果专注于人工评估。


摘要


苹果的训练数据基于从更大的服务器模型生成的合成摘要,并通过拒绝抽样策略进行过滤,仅保留高质量的摘要。


为了评估特定于产品的摘要,这里使用一组750个响应,针对每个用例进行了仔细抽样。


评估数据集涵盖了苹果的产品功能在生产中可能面临的各种输入,包括不同内容类型和长度的单个文档和堆叠文档的分层组合。


另外,评估摘要功能也要考虑到一些固有风险,比如,模型偶尔会忽略掉一些重要的细节。


根据评分者在五个维度上的打分,摘要被分类为好、中、差。


实验结果表明,与同类模型相比,带有适配器的模型可以生成更好的摘要。


并且在超过99%的针对性对抗性示例中,摘要适配器并没有放大敏感内容。


基础功能


对于设备端和服务器模型的一般功能,苹果利用一套全面的真实世界提示来评估通用模型的功能。


这些提示在不同的难度级别上各不相同,涵盖头脑风暴、分类、封闭式问答、编码、提取、数学推理、开放式问答、重写、安全、总结和写作等主要类别。


将苹果的模型与开源模型(Phi-3、Gemma、Mistral、DBRX)和类似规模的商业模型(GPT-3.5-Turbo、GPT-4-Turbo)进行比较。



实验表明,与大多数竞品相比,苹果的模型更受人工评分师的青睐。


苹果的3B设备端模型性能优于Phi-3-mini、Mistral-7B和Gemma-7B等大型模型;而苹果的服务器模型也要优于DBRX-Instruct、Mixtral-8x22B和GPT-3.5-Turbo,同时效率更高。


安全性


苹果使用一组不同的对抗性提示来测试模型在有害内容、敏感主题和事实性方面的表现。


测量每个模型的违规率,同样采用人工评估:




上图显示了在安全提示方面与竞品的PK。人工评分员发现苹果的回答更安全、更有帮助。


指令遵循


为了进一步评估模型,苹果还使用指令跟踪评估(IFEval)基准测试来比较同类模型的能力。



结果表明,苹果的设备端和服务器模型都比同等规模的开源和商业模型更好地遵循详细说明。


最后是根据内部总结和作文基准评估模型的写作能力,包括各种写作说明,这些结果不涉及用于特定功能的适配器。



参考资料:

https://machinelearning.apple.com/research/introducing-apple-foundation-models


文章来自于微信公众号“新智元”,作者 “alan”


关键词: 苹果 , AI , 小模型 , AI手机 , 苹果AI
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
AI爬虫

【开源免费】ScrapeGraphAI是一个爬虫Python库,它利用大型语言模型和直接图逻辑来增强爬虫能力,让原来复杂繁琐的规则定义被AI取代,让爬虫可以更智能地理解和解析网页内容,减少了对复杂规则的依赖。

项目地址:https://github.com/ScrapeGraphAI/Scrapegraph-ai

2
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner