
少即是多!10亿参数「小巨人」击败ChatGPT
少即是多!10亿参数「小巨人」击败ChatGPT只有10亿参数的xLAM-1B在特定任务中击败了LLM霸主:OpenAI的GPT-3.5 Turbo和Anthropic的Claude-3 Haiku。上个月刚发布的苹果智能模型只有30亿参数,就连奥特曼都表示,我们正处于大模型时代的末期。那么,小语言模型(SLM)会是AI的未来吗?
只有10亿参数的xLAM-1B在特定任务中击败了LLM霸主:OpenAI的GPT-3.5 Turbo和Anthropic的Claude-3 Haiku。上个月刚发布的苹果智能模型只有30亿参数,就连奥特曼都表示,我们正处于大模型时代的末期。那么,小语言模型(SLM)会是AI的未来吗?
WWDC 2024上,苹果推出了Apple Intelligence,向大家展示了如何开发、训练出功能强大、快速且节能的模型,如何根据特定用户需求进行微调,以及如何评估模型的性能。
苹果始终不会把鸡蛋放一个篮子里。
当前的多模态和多任务基础模型,如 4M 或 UnifiedIO,显示出有希望的结果。然而,它们接受不同输入和执行不同任务的开箱即用能力,受到它们接受训练的模态和任务的数量(通常很少)的限制。
GPT-5延期?
WWDC上展示的苹果AI能力,在秋季iOS 18推出之后,很难用得上了。最新报道称,集成强大Siri的苹果AI将在今年晚些时候推出,而且苹果正设计一款更轻薄的iPhone,预计在2025年上线。
苹果OpenAI官宣合作,GPT-4o加持Siri,让AI个性化生成赛道热度飙升。
作为继OpenAI、微软、谷歌后,最后一个万众期待的尖子生,苹果在上周举行的WWDC24全球开发者大会上,终于交出了自己的“AI答卷”。
一周前,苹果在WWDC上发布了自己的AI功能Apple Intelligence,包括直接集成OpenAI的ChatGPT,自那以来,股价上涨逾7%,重夺全球市值第一宝座。
苹果讲了一个按Query难度分发模型的模式:B小模型:大多数场景,包括自动回复、改写、语法检查、Summary都用端侧的小模型跑。