# 热门搜索 #
搜索
苹果AI爆炸全宇宙!一夜重塑iPhone,Siri全家桶史诗级更新,马斯克怒了
8062点击    2024-06-11 16:34

苹果说到做到,一夜间,iPhone果然被AI重塑!


长达一个半小时的WWDC大会,主题就是AI、AI、AI——


从iPhone、iPad到Mac,无不被生成式AI覆盖。横空出世的Apple Intelligence,让苹果全系产品有了史诗级升级。



现在的整个苹果全家桶,都会用上GPT-4o,Siri还能随时召唤ChatGPT。


硅谷各家大科技公司的大模型发展得如火如荼,苹果能做什么?库克的这句话揭示了答案——「LLM等AI突破,让我们有机会把苹果产品的体验推向新的高度」。


你们做模型,我们做产品,的确是苹果一贯擅长的赛道。



而且,对于大家普遍担忧的安全问题,苹果也有解:通过苹果强大的自研芯片,普通大模型在设备端运行,太大的大模型就放到云端。


而苹果专门打造的私密云计算技术,也保障了我们的隐私和安全,我们的数据就连苹果都无法访问。


被Apple Intelligence加持的Siri,也彻底改头换面,全面逼近苹果让它「自由穿梭于系统中,随时听我们调遣」的愿景。



此外,除了Vision OS的重大更新之外,库克的这个消息也让中国用户激动不已:Vision Pro将于6月28日登录中国市场,本周五开始接受预定,价格29999元起!



网友:苹果AI满足了我的所有想象


有中国网友评论说:太牛了,Apple Intelligence真的满足了自己对AI在设备上的所有想象,不愧是苹果。



以前是Artifical Intelligence,如今就是Apple Intelligence了。



对于iPadOS 18的数学笔记功能,很多人都表示这太狂野了!



关于计算器应用终于登录iPad这一史无前例的事件,网友们表示万分激动。



OpenAI创始成员,AI大牛Karpathy对于苹果的这次更新也称赞不已:「我们正在进入一个打开手机就可以说话的世界。它可以和你对话,而且它认识你。这实在太令人兴奋了!」



Karpathy总结了这次苹果发布会的几大主题:多模态输入/输出、智能体、无摩擦、主动、分级售授权、模块化、隐私


还有人给这次苹果的所有更新做出了一张bingo游戏图。



Apple Intelligence:不仅个人化,而且懂你


苹果的目标,就是为全球10亿用户构建强大的个人化产品。


而近期生成式AI和LLM的发展,直接给苹果产品使用体验的全新升级带来了可能。


苹果对于产品的核心原则是: 足够强大,在最要紧的事上都能帮到用户;直观易用;深度整合到产品的使用体验中;它必须足够「懂你」,以你的个人情境为基础;而且,还要注重保护隐私。


如果这些原则都能满足,那它绝不仅仅是AI了,而是一种「个人化智能」。


而符合全部这些条件的Apple Intelligence,就在昨晚闪亮登场了!



为了这一刻,苹果已经准备了许久


这个全新的个人化智能系统,能让我们手中的个人化产品更实用、更称心。


市场上已有的AI聊天工具虽然好,但有一个通病:很少充分了解用户,因而也不理解我们的需求。


而苹果,要改变这一切。Apple Intelligence,会让即将到来的iOS 18、iPadOS 18和macOS Sequoia,彻底脱胎换骨!


Apple Intelligence,将强大的生成式模型置于iPhone、iPad和Mac的核心,能够根据我们所处的个人情境,来提供协助,而且深度整合在了所有的APP中。


能力


Apple Intelligence,可以让我们的iPhone、iPad和Mac理解、生成语言和图像,还能代替我们跨多个app交互,简化操作过程。


它最亮眼的地方,就在于理解我们的「个人情境」。


自然语言


Apple Intelligence中内置的LLM,能深刻理解自然语言。


比如,iPhone可以为通知设定优先次序,从而为我们减少不必要的干扰,同时又能不错过重要的信息。



它还会驱动一个全系统适用的全新书写工具,让我们写起东西来更从容。


它能帮我们重写、校对,还能提取文字摘要。


在它的帮助下,我们无论是写文章、发帖,还是提炼想法分享给他人,过程都会无比丝滑(甚至还能帮我们检查要发在网上的评论)。


同时,它还自动支持邮件、备忘录、Safari浏览器、Pages、Keynote,甚至第三方APP。



图像


Apple Intelligence还包含多种图像功能,从照片、表情符号到动图。


甚至,它还能让我们完全自创图像,让我们的日常对话更有趣。


更有趣的是,因为它认得我们照片图库中的人物,我们可以把他们的图像个性化,用到对话中。


比如,给朋友送上生日祝福时,我们可以生成ta的图像,用蛋糕、气球和花朵点缀起来。



生成的图像,有素描、插图、动画三种风格可选。



更让人惊喜的是,这些功能在系统中所有app都可用,包括Notes,Freeform,Keynote,Pages等等。



跨app操作


Apple Intelligence的另一个特点,就是还能跨app操作,这无疑会带来深远的影响。


它所需工具的各种资源,就在我们自己的口袋中——这些常用的app里。


苹果设计的Apple Intelligence,能随时取用这些工具,代我们执行各种操作。



我们可以直接向它开口:「调出上周Joz发给我的文件」,或者「给我看看所有妈妈、Olivia和我的照片」「播放前几天我太太发给我的播客」等等。


Apple Intelligence,会实现数百种此类操作。



个人情境


顾名思义,个人化智能最关键的要素之一,就是要深刻理解我们的个人情境。


而Apple Intelligence的运作,正是基于我们的个人信息都和情境之上的。


它能从我们的各种app中,检索和分析相关程度最高的数据,还能参考我们屏幕上的内容,比如我们正在查看的邮件,或者日历日程。



在日常生活中,这个功能可太有用了!


比如,我有一场会议改到了傍晚,我想知道开完这场会后,是否还能赶上女儿的演出,直接问Apple Intelligence就可以了。


因为它知道我女儿是谁,她几天前发来的演出详情,我这场会议的时间地点,甚至还能预估我从公司到剧院的交通情况。



架构


这个个人化智能系统的基石,就是设备端处理。


要实现这项功能,就离不开苹果软硬件整合,以及强大的芯片。


提供支持的芯片,包括A17 Pro,以及M系列芯片,它们为Apple Intelligence提供了坚实的算力基础。



它内置了设备端的语义索引,可以整理和提炼各种app中的信息。


我们提出请求,Apple Intelligence就会同通过语义索引,识别相关个人数据,然后传给模型,让它们根据个人情境更好地协助你。



这个过程中用到的大多数模型,都能在设备端运行。


然而有的模型,会大到无法放进随身携带的设备,怎么办?


答案就是——服务器。


不过这里依然有一个问题,在传统的做法中,服务器会储存我们的数据,在我们不知情的情况下使用这些数据。我们却无法对之验证,因为服务器软件只有所有者才能访问。


而苹果的做法,彻底断绝了这种可能!


我们能全权掌控自己的数据,包括在哪里储存、谁能访问。当iPhone上的隐私和安全保护功能扩展到云端,我们就能解锁更多智能功能了。


为此,苹果打造了私密云计算技术。



它不仅能扩展自身的计算能力,还能引入更大的基于服务器的模型,来处理更复杂的请求。



而我们的隐私也会得到保护,因为我们的数据绝不会被存储,连苹果都无法访问。


体验


Apple Intelligence强大的语言理解功能将落地为写作助手(Writing Tool)。


作为操作系统的内置AI,写作助手不仅可以用在手机自带的短信或邮件中,也同样支持所有需要输入的第三方应用。


邮件中有了自带的校对功能,可以一键查看修改建议,并能直接看到所有词语的释义。


写邮件时,再也不需要一遍遍复制粘贴到其他应用的界面了,苹果一夜之间就抢了Grammarly的看家生意。



不仅是文本校对,Writing Tool也同样提供多样化的改写功能。


它可以同时在文中生成多个改写版本供你选择,也能随时回滚到原始版。



此外,用户还能和Writing Tool进行个性化交互,定制自己的改写需求,比如改变文体、文风、语气等等。


想要发一封有文采的邀请函?Writing Tool可以瞬间帮你把现有的平常文字改写成一首诗。



或者一键在友好、专业、简洁等三种文风间切换,丝滑适应不同身份的收件人。



谷歌都有了网页内容的摘要,苹果又怎么能落下。这不邮件的摘要功能就出来了,拯救所有不想读长邮件的打工人。



邮件太多懒得回?Writing Tool也帮你想好了对策。


Smart Reply功能可以自动理解邮件的上下文内容,并自动为你生成一堆选择题。


只需要点击几下选出自己的答案,就能生成一份智能回复,连打字都省了。



Siri


13年前,Siri首次问世,作为曾经首屈一指的智能语音助手曾经掀起巨大热度。


如今,繁忙的Siri每天需要处理15亿次语音请求。而它离苹果「自由穿梭于系统中,随时听我们调遣」的愿景,也更近了一步!


在Apple Intelligence的加持下,Siri变得更自然、更贴合语境了,因此也变得更加贴合我们。


如今当我们和Siri对话时,它和系统的整合会更深入。当它运行时,优雅的光晕会环绕着屏幕边缘。



我们和Siri的对话也可以更自然,因为它能理解更丰富的语言。即使说话不连贯,它都能理解我们的意思。


比如问它:明天缪尔海滩是什么天气,不对,是缪尔森林。


它会清晰地理解你的意思,并且给出正确的回答。



即使我们在提问中停顿,思考一番,Siri依然能跟上我们。


在对话中,Siri还能联系上下文。比如我们接着上面说「创建日历日程,明天上午9点去那里徒步」,它立马正确地理解「那里」指的是哪里,完成了指令。



如果我们不想跟Siri大声说话,现在可以直接给它打字了。


只要在屏幕下方快速轻点两下,就能让Siri快速设好闹钟,整个过程悄无声息。


跟Siri交流的过程中,我们可以在文字和语音中随时切换。


而且,现在Siri掌握了大量关于功能和设置的信息,能回答数千个问题,关于如何在iPad或Mac上进行操作。



即使我们不知道某项功能的确切名称,只需要口头描述一番,Siri就能帮我们找到了!


比如直接问它:「我想现在就写好信息,然后明天发送,该怎么做?」


Siri完全明白我们说的是哪个功能,还提供了分步说明。



Apple Intelligence还会为Siri带来屏幕内容感知功能,这样,它就能理解屏幕上的内容,执行相应的操作。


比如朋友发消息告诉你ta的新地址,你可以直接在信息对话中说,「把这个地址加入ta的联系人名片中」。



当然,Siri也可以完成跨app操作。


比如我们可以说:「让我看看Stacey在纽约穿着粉色大衣的照片」,Siri就会把它们找出来,然后还能按照我们的指令开始修图。



然后,我们还可以让Siri把这张照片加到备忘录中Stacey的简介里,它就会从照片app跳转到备忘录app中,来完成操作。


这些增强功能,也并不限于苹果开发的APP。


比如,我们可以让Siri用Moment的Pro Camera,来拍摄光轨的视频。



也可以让Siri把我们备忘录里的会议摘要,分享到我们在Superhuman中给大家写的邮件里。


下面的这个功能,就更酷炫了!


通过为照片、日历日程、文件等创建语义索引,再加上往来消息和邮件的信息,比如预定酒店、音乐会门票的PDF文件、朋友分享的链接等,Siri能发现和理解的内容范围,将远超以往。


如果我们忘了资料是在邮件、信息还是在共享备忘录里,Siri都能解决。比如我们需要找到朋友之前推荐的书单,或者是填表时需要驾照号码。



假如我们打算去机场接妈妈,Siri能直接帮我们规划时间。


它能同时参考妈妈在邮件里写的航班详情,以及航班的实时动态,为我们提供最新的到达时间。


而在和妈妈的闲聊中,她提到过中午订了餐厅,我们就可以直接问Siri去那家餐厅需要多久,完全不必在邮件、信息和地图中跳来跳去了!


如苹果所说,今年将成为Siri新纪元的起点。


苹果「全家桶」用上GPT-4o


以上所展示的苹果AI能力,仅是一个「起点」。它能够以极为独特的方式理解你、尊重你、支持你。


未来,苹果还将带来超多的实用功能,比如备忘录中的录音和转写功能。



它能够帮你更详细地记下笔记,专心听讲,完全可以替代GoodNotes、Notability这类的学习工具。


录音/转写完成后,苹果AI还能帮你总结摘要,扫一眼便能抓住要点。



与此同时,录音/转写和苹果AI结合的能力,同样适用于电话应用。


当你实时通话的时候,开启录音,所有的参与者都将会收到通知,并且通话结束后苹果AI也会生成一段摘要。



Siri召唤ChatGPT


对于一些非常有用的外部AI工具,比如擅长处理某些需要广博知识,或者专业特长的任务,苹果直接将其模型纳入体验之中,而无需来回切换工具。


当然,这个工具就是行业的翘楚、市场的开拓者和领头羊—— ChatGPT。


苹果AI将用上全新的GPT-4o能力。


首先,Siri可以借助ChatGPT的专长,随时为我们所用。


比如,你想用刚钓的鱼,和自家种的菜为朋友准备一顿丰盛的大餐时,可以找Siri给些灵感。


Siri便会问你,是否召唤ChatGPT,然后直接为你呈上最丰富的答案。



而且,问问题时,你还可以上传一张照片。比如,询问如何家装的建议,拍张照片然后问「这个露台种什么植物好看」?


Siri会首先确认是否会向ChatGPT分享照片,然后才会为你找寻点子,整个过程完全就是一气呵成。



除了照片,你还可以询问关于文档、演示文稿,或者PDF中的相关问题。


另外,苹果AI还借用了ChatGPT的编写能力,将其融入所有系统中适用的书写任务中。


假设你想为擅长解谜的6岁女儿写一个睡前故事,初步构想是「她来到了梦幻的蝴蝶童话王国。她和一只毛毛虫成为了好友,并帮它克服重重困难,最终变成了一只蝴蝶」。


只见,ChatGPT不一会儿功夫完成了一个Annie喜欢的小故事。



甚至,你还可以选中所有内容,让ChatGPT为其生成一副插画。



以上所有能力,无需注册ChatGPT,便可免费使用。


对于那些订阅ChatGPT的用户们,也可以关联自己的账号,可以在使用苹果AI过程中接入付费的能力。


不过,苹果再三强调,我们的请求和个人信息不会被记录。何时使用ChatGPT,都是你说了算,再分享任何信息之前,都会征求用户的许可。


ChatGPT也将集成到这次所有更新的iOS 18、iPadOS 18、macOS Sequoia系统中,并在今年晚些时候推出。


未来,其他先进的AI模型的能力,也会集成到苹果AI之中。


不出所料,苹果AI能力仅限在iPhone15级别的手机上使用,不过对于iPad、MacBook还比较友好些,能够兼容M1芯片及以上的硬件。



马老板怒了,禁止全员使用苹果


ChatGPT在苹果全家桶中无缝集成能力虽炫酷,却遭到的全网非议。


最先反对的就是马老板!


他连发多篇帖子,对ChatGPT上机苹果表示不满,甚至扬言禁止公司所有成员使用苹果的设备。



我不想要这个能力。这就如同间谍软件一般,如果你们不阻止,我的公司将禁止使用任何苹果设备。



另外,马斯克还单独发帖子称:


「对于公司的外部来访者,都必须在门口将他们的设备放在「法拉第笼」(Faraday cage)中」。



苹果没有能力开发AI,却能够确保OpenAI会保护你的安全和隐私。一旦苹果将你的数据交给OpenAI,他们就不知道OpenAI究竟会如何处理这些数据,他们实际上是在出卖你的隐私权。




也有众多网友对苹果的这项能力,产生了质疑。


一位网友从底层架构图中得出,Siri可以读取手机上的所有数据(适用于选择加入的应用程序) 。




一家AI初创的CEO表示,


老实说,我真不理解苹果为什么要把任何东西发送给ChatGPT?这太怪异了。为什么不直接让Meta授权,然后自己部署400B的Llama模?从70B开始也可以呀...
他们口口声声强调隐私和安全,甚至声称你不应该相信任何人!结果他们却来了个180度大转弯——是的,我们正在把你的数据发送给ChatGPT。




还有人配上梗图讽刺道,「当奥特曼已耗尽100%互联网训练数据时,看到十亿部手机时」。



苹果AI背后模型训练过程揭秘


发布会之外,苹果还发布了一篇关于介绍苹果AI能力实现背后的基础模型的文章。



博客介绍道,苹果AI是由「多个」强大的生成式AI模型组成,这些模型专用于日常任务,并根据当前活动实时调整。


他们强调,内置的基础模型针对用户体验进行了微调,比如编写和提炼文本、对通知优先排序汇总等等。



接下来,苹果详细介绍了两个经过微调建模的模型:


一是,可以运行在终端设备中的30一参数模型。


另一个是,更大的基于苹果芯片加持云服务器的基础模型,可用于私有云计算。


其他模型还包括,用于编码的XCode,扩散模型(帮助用户如在Messages应用中,以视觉方式表达自我)。


预训练


苹果的基础模型,是在2023年发布的开源项目AXLearn框架之上训练的。


AXLearn建立在JAX和XLA之上,可以在各种训练硬件和云平台上高效、可扩展地训练模型,包括TPU和云端及本地GPU。


另外,苹果研究团队还采用了数据并行、张量并行、序列并行和全分片数据并行(FSDP)等组合方式,从数据、模型和序列长度等多个维度来扩展训练规模。



至于数据的选用,苹果表示自己用的是授权的数据训练基础模型。


其中包括两种数据来源:一是经过精心选择,目的是提升模型的特定功能;二是,苹果网络爬虫AppleBot工具从网上公开采集的数据。


后训练


苹果团队意识到,数据质量对于模型的成功,至关重要。


因此,他们在训练过程中,采用了「混合数据策略」,即结合使用人工标注和AI生成数据,并进行了彻底的数据筛选和处理。


具体来说,研究团队在模型「后训练」阶段,开发了两种全新的算法:


(1) 拒绝抽样的微调算法,使用多个教师模型作为参考,对模型输出进行过过滤和微调


(2) 人类反馈强化学习算法,结合使用了镜像下降策略优化,以及留一法优势估计器(leave-one-out advantage estimator)新技术。


结果发现,这两种算法可以显著提升模型指令跟随的质量。



优化


另外,苹果还采用了一系列创新技术,在设备端和私有云上优化模型的速度和效率。


他们对第一个token推理和扩展token推理的性能都进行了大量的优化。


无论是设备端模型还是服务器端模型,都采用了「分组查询注意力机制」(grouped-query-attention)。


苹果还使用了共享的输入和输出词表,以减少内存需求和推理成本。这些共享的嵌入张量在映射时不会产生重复。


设备端模型的词表大小为49k token,而服务器端模型的词表大小为100k token。


对于设备内推理,他们还是用了「低比特量化」(low-bit palletization)的技术,能满足所需的内存、功耗和性能要求。


为了保持模型输出质量,研究团队开发了一种新框架——使用LoRA adapter,并采用了混合2位和4位的配置策略,平均每个权重占3.5位——从而达到与未压缩模型相同的精度水平。


此外,他们还使用了一种名为「Talaria」模型,可以对模型的延迟和功耗进行交互式分析,更好地指导在不同操作中选择合适的量化精度。


苹果基础模型还采用了激活值量化和嵌入量化技术,并且开发了一种在苹果神经网络引擎上高效更新键值缓存的方法。


值得一提的是,通过以上优化,iPhone 15 Pro可实现每个提示token首次输出的延迟约为0.6毫秒,生成速率为每秒30个token。


这一性能实现,并未采用token猜测技术,如若开启,速度将会更近一步提升。


模型自适应


苹果基础模型针对用户日常任务进行了微调,并且能够根据实时任务完成动态化适应。


这一过程实现,是借助适配器,即一些可以插入到预训练模型各层的小型神经网络模块,对模型进行特定任务的微调。


通过调整适配器中注意力相关的参数和前馈网络的参数,可以让整个LLM的行为专门化到特定任务上。



性能与评估


针对总结功能的评估中,苹果与微软Phi-3-mini小模型进行了对比。


可以看得出,不论是在邮件、还是通知中,苹果设备端30亿参数的模型在「优秀」和「差」的生成中更占优势。



苹果还将自家模型,与开源模型(Phi-3、Gemma、Mistral、DBRX)和商业模型(GPT-3.5-Turbo、GPT-4-Turbo)进行了比较。


结果发现,人类评估者更倾向于苹果模型输出的结果。


在这个基准测试中,30亿参数设备端模型的表现甚至超过了更大的模型,如Phi-3-mini、Mistral-7B和Gemma-7B。


而服务器端模型在性能上,甚至可与DBRX-Instruct、Mixtral-8x22B和GPT-3.5-Turbo相媲美,同时效率极高。



对于模型输出危害评估,苹果模型比率最低,说明输出有毒内容较少。



与此同时,苹果模型在安全提示的评估中,设备端模型完全碾压Phi-3-mini、Mistral-7B,服务端模型打败了DBRX-Instruct、Mixtral-8x22B。



在指令跟随(IFEval)基准上,与其他模型相比,苹果模型展现出了强大的能力。



最后一个是写作基准,终端上的苹果基础模型,是性能最优的。在服务器端,作文方面的能力还是不如GPT-4 Turbo。



二代VisionOS更新,苹果头显月底登陆中国


据上次发布Vision Pro和Vision OS刚刚过去4个月,苹果就又在WWDC上宣布了Vision OS的重大更新。


而且,还有让中国用户更加激动的消息——


库克在发布会上正式官宣,Vision Pro 将于6月28日登陆中国市场,将于本周五(6月14日)开始接受预定,国行价格为29999元起。



Vision Pro中的照片App集成了空间计算技术,戴上就可以浏览「3D」照片,让你有走进照片、「重现过去」的感觉。


最新的iPhone 15 Pro和Max的后置镜头已经可以拍摄空间影像,苹果也和佳能合作为专业照相机开发了空间镜头。



那以前拍摄的传统平面照片呢?


自然也不能落下。Vision Pro集成的机器学习模型,可以将照片从单视角变为双眼视角,还能添加图像深度,瞬间2D变3D。



之前的Vision Pro已经可以和Mac集成,苹果这次决定升级Vision中的虚拟屏幕,同时提高分辨率和屏幕宽度。


今年的更新后,一个Vision Pro相当于电脑的两个4k外接屏幕,动态注视点技术让你无论从哪个角度看屏幕都无比清晰。



而且,这个虚拟屏可以随时打开,比如「旅行模式」可以让你在飞机上随时大屏追剧或私密办公。



Vision Pro想要变得越来越好用,让以上这些功能走入现实,不能少了开发者的App和创作者的优质内容。


目前已经有超过2000个专门为Vision Pro开发App,以及其他1.5万个兼容VisionPro的手机或平板应用。


这次Vision Pro的更新也包括了各种服务于开发者的API:


- 3D空间内的多任务处理器Volumetric(可以说是Vision Pro上的Stage Manager)

- 让应用锚定在各种平面上的TableTopKit

- Enterprise API让企业可以定制各种复杂应用



比如使用TableTopKit开发棋牌游戏,让棋盘锚定在桌面上,加上显示在空间中的FaceTime的头像,下棋的体验就更加沉浸式了。



去年Vision Pro发布了Apple Immersive Video,经过今年的再次更新,苹果始终萎靡不振的内容产业很可能要翻盘了。


现在它的手里掌握着各路流媒体都不具有的空间影像技术。180度视角的8k视频加上高品质的音效,达到了甚至超越3D影院的逼真体验。



而且这次的发布非常垂直,打包了3D空间视频的全产业链。


对于业余爱好者,拍摄可以用iPhone或与苹果合作的佳能相机,剪辑可以用Mac自带的Final Cut Pro,观看可以用Vision OS中的Vimeo。


在专业创作领域,苹果和创意视频公司Black Magic Design合作,从摄像机到剪辑、后期软件全覆盖,今年晚些时候就会发布。



此外,苹果还和多方合作,制作原创的Apple Immersive Video并发布在Apple TV中。


合作方在内容领域都是大名鼎鼎,包括顶级歌手The Weekend、奥斯卡奖导演Edward Berger,以及与红牛制作的极限运动系列。


文章来源于“新智元”,作者“新智元”


关键词: AI , 苹果AI , siri , AI工具 , openai , chatGPT
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

2
AI爬虫

【开源免费】ScrapeGraphAI是一个爬虫Python库,它利用大型语言模型和直接图逻辑来增强爬虫能力,让原来复杂繁琐的规则定义被AI取代,让爬虫可以更智能地理解和解析网页内容,减少了对复杂规则的依赖。

项目地址:https://github.com/ScrapeGraphAI/Scrapegraph-ai

3
免费使用GPT-4o

【免费】ffa.chat是一个完全免费的GPT-4o镜像站点,无需魔法付费,即可无限制使用GPT-4o等多个海外模型产品。

在线使用:https://ffa.chat/

4
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner