智东西7月5日报道,昨天下午,2024 WAIC科学前沿全体会议在上海召开!2024科学前沿全体会议以“可信AI,善治共享”为主题,请到了上海人工智能实验室主任、首席科学家周伯文,中国科学技术研究所党委书记、中国软科学研究会副理事长赵志耘,阿卜杜拉国王科技大学人工智能计划负责人瑞士人工智能实验室(IDSIA)研发主任Jürgen Schmidhuber,加州大学伯克利分校教授及绿洲实验室(Oasis Labs)创始人Dawn Song等多位专家学者进行演讲。
会议现场,上海人工智能实验室青年科学家陈凯、上海人工智能实验室领军科学家代季峰、上海人工智能实验室青年科学家白磊发布了多项涉及书生大模型的成果,具体是书生·浦语InternM2.5、书生万象多模态大模型以及风乌。
上海人工智能实验室主任、首席科学家周伯文谈道,大模型是有幻觉的,但有时候这种幻觉可以演变为一种创造力,能够为推动科学发现带来新的可能性,极大发挥大模型作为新质生产力的潜能。
加州大学伯克利分校教授及绿洲实验室(Oasis Labs)创始人Dawn Song认为要以负责任和可信的方式去部署AI系统,这其中,就包括了确保AI的可信度、减轻AI的滥用以及负责任的数据使用和价值归属。
中国科学技术研究所党委书记、中国软科学研究会副理事长赵志耘发布了《2023全球人工智能创新指数》,针对多个重要国家的人工智能创新、发展和治理情况进行量化评估。
其中,中国在所有一级指标上均排名全球第二,聚集了全球人工智能创新资源和成果的绝大多数,在人才培养、科研产出和产业发展方面取得了明显进展,但在关键核心竞争领域尚未形成绝对优势。未来,如何在基础支撑、数据资源、人才培养、原始创新等方面加以改进,仍值得进一步深入思索。
当前,世界正处于智能革命的时代。与以往的工业革命不同,这次革命加速了知识的发现和人与人之间的交流,带来了生产范式的彻底变革。AGI在赋能生产力方面具有广泛的应用,它不仅是一个重要的工具,更是生产力背后的生产力。
对上海人工智能实验室主任、首席科学家周伯文而言,他第一次深入思考AGI是在2015-2016年间。当时,他在美国IBM总部做报告,提出了两个新名词:狭义人工智能(ANI)和广义人工智能(ABI)。基于当时的技术水平,他认为通过ANI向AGI过渡需要经历ABI这一阶段。ABI具有自监督学习、端到端完成任务以及从判别式到生成式的特点。
如今,随着2022年ChatGPT的出现,我们已经进入了ABI时代,这标志着AI技术发展的一个重要里程碑。
在2016年的预测中,他未能预见到大模型的涌现能力。尽管如此,他认为从现在走向AGI的路径是二维的,既要具备强泛化能力,又要具备足够的专业性。只有在这两方面都达到较高水平,才能实现AGI的高价值落地。
在实现AGI的过程中,需要系统化的思考和规划,包括基础模型层、融合协同层以及自主进化与交付层。在基础模型层上,需要不断地提升更高效地获取模型泛化的能力,同时需要更多的复杂任务规划能力、高密度监督性的生成能力等来辅助;在融合协同层上,要将泛化性和专业性有效地结合起来,可以采用多路线协同的算法架构来获取比肩人类水平的专业能力;在自主进化与交互层,强调 AI 的自主探索与反馈闭环,AI 系统需要能够在真实或者仿真的世界中自主的收集数据,学习并适应环境,通过与环境的交互获得反馈,从而实现自我进化。
周伯文还提到,AGI不仅在生产力方面具有重要意义,还能在科学发现中发挥巨大作用。大模型的创造力可以打破信息茧房,提高科研效率,为未来的科学研究提供新的动力。
2023年初,上海人工智能实验室训练了一个生物医药模型,让这个模型学习了此前所有的相关论文。不同于Chatgpt回答人提出的问题,这次需要大模型给人提出问题。之后,大模型提出科学假设,提到二甲双胍这一药物对胃癌患者而言,在性别上有显著的效果差异。
而这一假设此前都从未被在论文中提及。直到 2023 年3月30 号,在一篇人类科学家的论文里,其中实验的结果证实了大模型此前的假设,证实了二甲双胍的疗效存在着显著的男女性差异。
通过AGI,可以加速从数据中发现新的知识,推动各领域的创新和进步。通用人工智能作为未来科技的重要方向,不仅在技术层面具有巨大的挑战和机遇,更将在经济、社会等各个方面带来深远影响。
▲上海人工智能实验室主任、首席科学家周伯文
中国工程院院士、国家流程制造智能调控技术创新中心首席科学家钱锋,中国工程院院士、机器人视觉感知与控制技术国家工程研究中心主任王耀南,虚拟现实技术与系统全国重点实验室主任、北京航空航天大学副校长吕卫锋,认知智能全国重点实验室主任、中国科学技术大学兼职教授胡国平,多媒体信息处理全国重点实验室主任、北京大学教授黄铁军,脑机智能全国重点实验室主任、浙江大学教授潘纲,自主智能无人系统全国重点实验室常务副主任、北京理工大学教授孙健,深入探讨了通用人工智能的众多研究方向。
人工智能是当今发展新质生产力的重要引擎,但钱锋提到,这也面临很多挑战,尤其是泛化能力以及不可解释性。尽管人工智能在推动新技术和生产力方面有巨大潜力,但如何提升模型在未知数据上的表现以及解释其决策过程仍是需要解决的重要问题。他还特别强调了专用模型在特定领域的优势,专用模型不仅可以提供更高的性能和精确度,还能够满足不同行业和应用场景的特定需求。
“顶天立地”,是王耀南认为在AI大模型的研究与应用过程中至关重要的两个方面。“顶天”指掌握大模型的前沿技术,深入了解其体系架构、推理过程的解释性、安全性和可信度,避免将其视为黑箱。还要改进训练算法,提升泛化能力和优化效果,同时关注算力和电力消耗。而“立地”,则指AI技术为各行各业赋能,如在智能制造和机器人领域。他结合自身专业,指出大模型能推动具身智能的发展,解决传统机器人在多机器人协同控制中的局限。
吕卫锋指出,随着人工智能的发展,虚拟现实技术需求发生重大变化,现在更关注智能化的虚实融合环境及虚拟与现实的无缝衔接。如今,虚拟现实已经从从“3I”(沉浸式、可交互、可构想)发展到“6I”(加上了智能化、可演进、虚实贯通),这标志着人工智能对虚拟现实的巨大影响。他提到,随着多模态大模型的发展,虚拟现实技术基础软件平台也将发生革命性变化,传统的渲染引擎和模型构建平台将被新的智能平台取代,而这些智能平台或许也将带来更加逼真的交互。
自然语言理解涉及复杂的知识和逻辑,而AI在进行语言理解上仍存在较大挑战。胡国平介绍,这种挑战尤其是在理解语境和逻辑推理方面。为提升AI对语言的认知理解能力,认知智能全国重点实验室与科大讯飞、中国科学技术大学合作,开发出如讯飞星火的大模型,并利用大量算力和语料,采用类似人类学习的方式,通过学习和反馈不断提升机器的性能,使机器能够掌握细致的语言理解能力。
在智能系统中,黄铁军认为了“时间”是极其重要的,提出未来的研究方向是实时感知和处理。具体而言,不仅要收集静态数据,还要实时获取和处理多种感知信息。他谈到,类脑智能的关键在于处理不同感知通道的信息,并在性能上超越人类。智能系统应该比人类更快、更强大,以确保其在现实世界中的实际应用和存在意义。人工智能的目标不是替代人类,而是在性能上显著优于人类,以此为方向推动技术的发展和应用。
孙健介绍了自主智能无人系统全国重点实验室的研究方向,主要包括协同控制、环境感知与理解、无人系统智能发展、仿生驱动等。他提到,实验室在大模型人工智能的影响下,尤其关注具身智能系统的研究。具体来说,实验室致力于发展多体智能体之间的矩阵智能,强调协同与协作,目前研究重点包括环境理解与感知、具身智能与环境交互大模型、多个智能体之间协作与博弈,以及分布式控制在智能体间的应用。
20年前,阿卜杜拉国王科技大学人工智能计划负责人、瑞士人工智能实验室(IDSIA)研发主任Jürgen Schmidhuber曾绘制了一幅关于一个拥有世界模型的机器人图画,这个机器人能够通过递归的深度链来思考未来,并优化其行动序列。这正是今日所谈论的生成式AI的基础。Jürgen Schmidhuber在会议现场,对人工神经网络的发展历程进行了细致回顾。
人工神经网络灵感来自人脑。人脑拥有大约1000亿个神经元,每个神经元与其他1万个神经元相连,总共约有一百万亿个连接。通过学习,这些连接的强度会发生变化,使系统能够执行诸如驾驶汽车或语音识别等任务。而神经网络通过模仿这种生物神经连接方式,实现对信息的处理和学习。
尽管许多人认为Transformer起源于2017年的Google,但实际上早在1991年,他就提出了类似的概念,称之为“fast way controller”,即现在的线性Transformer。这种线性Transformer的计算量随输入线性增长,相较于现代的二次Transformer,其效率更高。线性Transformer通过减少计算复杂度,能够显著提高了处理速度和效率。
早在1990年,他提出了一个叫做“人工好奇心”的概念,即现在的生成对抗网络。这种网络通过两个对抗的子网络,一个生成输出,另一个预测输出的后果,从而实现自我学习。GAN通过这种对抗机制,使得生成的内容更加真实和逼真,广泛应用于图像生成、视频生成等领域。
LSTM是深度学习的重要突破,首次实现了真正的深度网络。它通过残差连接,使得网络能够学习长期依赖性,并在自动翻译、语音识别等方面广泛应用。LSTM通过其独特的门控机制,解决了传统神经网络在处理长序列数据时的梯度消失问题,从而在自然语言处理、时间序列预测等方面取得了突破性进展。
在2009年,随着计算能力的提升,深度学习开始在各种比赛中取得崭露头角。2010年,他们利用Nvidia的GPU,大幅提升了卷积神经网络的速度,并在图像识别等任务中表现出色。尽管这些技术在20世纪已被提出,但直到21世纪才得以广泛应用。深度学习通过大规模数据集和强大的计算能力,极大地提高了模型的性能和泛化能力。
最早的大规模语言模型基于LSTM,直到2017年Transformer的出现。Transformer极大地改进了语言处理的能力,并在生成文本、翻译等方面取得了显著成效。Transformer通过自注意机制,能够有效捕捉序列数据中的长距离依赖关系,从而显著提升了自然语言处理任务的性能。
虽然AI在虚拟世界中表现出色,但在物理世界中的应用仍然面临挑战。为了实现这一目标,他专门创建了AI公司,专注于物理世界中的自动化检查等应用。通过结合硬件和AI技术,开发出了领先的自动化检查系统。这些系统通过高精度传感器和强大的数据处理能力,实现了对复杂物理环境的实时监测和分析,广泛应用于制造、医疗等领域。
Jürgen Schmidhube总结道,未来的AI,需要在物理世界中实现更复杂的任务。这需要AI系统能够创建和优化世界模型,并通过层级规划来实现高效的行动序列。通过持续改进,期待AI在智能制造、智慧城市、精准医疗等领域发挥更加重要的作用。在各个领域,包括医疗、可持续发展等方面发挥更大的作用。
▲阿卜杜拉国王科技大学人工智能计划负责人、瑞士人工智能实验室(IDSIA)研发主任Jürgen Schmidhuber
AI技术快速发展并广泛应用,但其背后的潜在风险不容忽视。加州大学伯克利分校教授及绿洲实验室(Oasis Labs)创始人Dawn Song,便分享了如何以负责任和可信的方式部署AI系统。
随着AI在各个领域的广泛应用,攻击者利用AI系统进行攻击的可能性和动机也在增加。这种情况使得确保AI的可信度、减轻AI的滥用以及确保数据的负责任使用和价值归属成为当务之急。Dawn Song的演讲重点讨论了三个主要挑战:
一是确保AI的可信度。可信的AI涵盖了隐私保护、公平性和抗毒性等多个方面。张松教授特别提到了隐私问题,指出神经网络可能记住训练数据中的敏感信息,攻击者可以通过查询模型来提取这些信息。为了应对这一挑战,她的团队开发了一种名为“曝光削减”的方法来衡量模型的记忆程度,并提出了差分隐私模型作为潜在解决方案。
二是减轻AI的滥用。AI技术的滥用可以对机器系统和人类造成巨大影响,特别是在语音克隆、社会工程、虚假信息和钓鱼攻击等领域。Dawn Song提到,通过建立“设计即安全”的系统,并利用AI技术进行程序验证和生成,可以减少这些滥用带来的风险。
三是负责任的数据使用和价值归属。当前,许多有价值的数据被锁在数据孤岛中,数据贡献者也未能得到公平的回报。Dawn Song的团队开发了一种基于Shapley值的框架,用于公平分配数据贡献的价值,推动建立负责任的数据经济。
▲加州大学伯克利分校教授及绿洲实验室(Oasis Labs)创始人Dawn Song
人工智能大模型技术架构是否已经收敛?大模型与具身智能如何结合?未来又会有怎样新的技术可能性和挑战?
上海人工智能实验室领军科学家、教授林达华与多为青年科学家——上海人工智能实验室青年科学家陆超超、Research Scientist, Google DeepMind Han Zhang、快手视觉生成与互动中心负责人万鹏飞、清华大学交叉信息研究院助理教授许华哲、加州大学洛杉矶分校计算机系助理教授周博磊、滑铁卢大学计算机学院助理教授张弘扬,深入讨论下一代人工智能的革新与挑战。
陆超超在发言中探讨了大模型在实际应用中的具体挑战和可能性。他指出,当前的大模型在许多领域已经展现出了强大的能力,但同时也面临着一些显著的问题,如数据量和算力需求的不断增加,需要在技术和资源之间找到平衡,避免过度依赖单一的技术路线。此外,尽管大模型在许多应用场景中表现出色,但在某些特定任务中仍存在一定的局限性。建议研究人员应继续探索新的模型架构和优化方法,以提升大模型的整体性能和应用范围。
从早期的GAN到今天的diffusion模型,Han Zhang总结了生成模型的发展历程和未来方向。他提到,生成技术在图像分辨率和多模态生成方面取得了显著进展。不过,虽然diffusion模型在当前阶段表现优异,但其并不是最终的解决方案,未来仍需要更多创新。此外,Han Zhang还提出了对资源分配的看法,呼吁在研究中注重探索新的模型家族,而不仅仅是扩展现有模型的规模,研究人员应利用有限的资源进行更广泛的创新,而不是仅仅依赖当前流行的技术。
万鹏飞介绍了视觉内容生成的现状和未来发展,还提及自己团队在快手开发的可灵模型,并分享了该模型在文本生成视频方面的应用。尽管模型在基础能力上已经取得了显著进展,但要实现大规模的实际应用仍面临许多挑战,包括内容的可控性和生成视频的持续性。在实际应用中,需要不断提升模型的性能,以满足用户的多样化需求。他还提到,用户反馈在改进模型方面起到了重要作用,通过开放模型使用和收集反馈,可以不断优化模型的功能和效果。
针对大模型在决策和推理中的应用问题,许华哲指出,大模型在处理某些经典问题时,如过拟合问题和推理能力不足,可能会产生错误的结果。大模型在解决NP难题和优化问题中还存在着局限性,当前模型在这些复杂任务中尚未展现出突破性的能力。他建议在与大模型交互的过程中,需要不断调整和优化模型,持续探索和改进大模型的推理和决策能力,以应对各种复杂和变化的应用场景。
大模型与具身智能的结合,既带来了无限可能性,但也蕴含着巨大挑战。周博磊指出,大模型在生成新的训练环境和模拟复杂场景方面具有巨大潜力,可以用于提升具身智能的训练效果。他提到,通过大模型引导智能体在虚拟环境中学习,可以更有效地解决自动驾驶等领域中的长尾问题。另外,大模型与具身智能的结合是未来研究的重要方向,能够带来更多的创新和突破,应在这一领域投入更多资源和精力,探索新的应用场景和技术路径,以推动智能技术的发展和应用。
当前,大模型在提升能力方面受限于数据和算力的瓶颈,互联网数据资源已经接近饱和,而算力的增加成本高昂。张弘扬提到,OpenAI等公司为训练大模型投入了大量资源,但这种方式并非可持续。他建议,通过生成式数据和模拟数据来训练模型,提升模型的自我进化能力是一条可行的路径。从短期来看,需要在数据和算力之间找到平衡,而从长期来看,需要探索新的方法和技术,以突破当前的瓶颈,提升大模型的整体性能和应用范围。
2024 WAIC科学前沿全体会议上,上海人工智能实验室发布了多项涉及书生大模型的最新成果,包含书生·浦语InternM2.5、书生万象多模态大模型以及风乌。中国科学技术研究所党委书记、中国软科学研究会副理事长赵志耘发布了《2023全球人工智能创新指数》,针对46个重要国家的人工智能创新、发展和治理情况进行量化评估。
书生·浦语2.5具备强大推理能力,能够解锁复杂任务。相比上一代模型,其推理性能提升了20%,领先国内外的同量级开源模型,并在多个权威推理评测集上实现了大幅的性能提升,尤其在数学评测集 math 上更是提升了100%。和最新的开源模型相比,书生葡语 2.5 在绝大部分的数据集上也领先于同量级模型,包括拉玛 3 和上周谷歌刚发布的 JMA 2 和 LLAMA 3 的 70B 模型。
书生·浦语2.5支持 100 万 token 的上下文长文本,在长文档处理方面位于开原模型的前列。在一项测试中,科研人员上传了新唐书的文档,并让模型总结唐朝文学风格的三次变化。最终,模型能够从几十万字的文言文中准确地引用相关的信息,并且进行回复。
在解决复杂问题上,书生·浦语 2.5 也有着独特的创新。模型能够模拟人的思维过程,根据用户需求进行问题分析,然后规划思维路径,再拆分成需要解决的子问题,每个子问题都会通过大规模的网络搜索、筛选和信息整合,最终得到回复。基于这样的多智能体协同框架,能够解决复杂的信息调研和分析场景。与人类专家相比,效率提升了 60 倍。
书生·浦语2.5也实现了全链条开源,兼容常用大模型开源工具,与社区生态无缝连接。在书生·浦语开源社区、书生大模型实战营和和浦源大模型挑战赛上涌现出了大量优秀的生态项目。从垂类模型到智能体应用,从软件到硬件,这些创意被应用于各个领域。如今,已经有接近 1, 000 个基于书生浦语大模型的开源项目。
书生万象作为一个开源多模态大模型,关键评测指标比肩国际顶尖的商用闭源模型,支持图像、视频、文本、语音、三维医疗等多种模态,拥有丰富的输出格式,支持百种下游任务,性能媲美任务专用模型。
书生万象模型的核心技术在于渐进式预训练、渐进式对齐训练。在训练过程的早期,采用小语言模型加大数据的方案,加快视觉模型的预训练的进度,训练后期替换为大语言模型加少量高质量的数据高效对齐。通过模型从小到大、数据从粗到精的渐进式训练策略,以较低的成本完成了大模型的训练,在有限资源下展现出了卓越的性能表现。
在多个基准测试中,书生万象模型的性能表现亮眼。在多个多模态评测领域的核心关键指标,包括多模态理解、数学问题解答、图表理解、文档问答及光学字符识别等等,跟其他的开源多模态模型相比,书生万象在各个评测维度上领先。而与世界顶尖的闭源商用模型相比,书生万象多模态模型也取得了和国际顶尖的 GPT 4o、 GPT 4v 、Claude 3 、Gemini Pro 1.5 模型相当的性能,并且优于国内闭源商用多模态模型的最优性能。
具体而言,在图像理解方面,书生万象模型不仅能够理解单图,还具有强大的多图理解能力,能够综合跨图信息进行内容理解。综合跨图信息对于视频内容的理解和复杂图文内容的解析来说非常重要,而书生万象便能为这类关键应用提供强大的智力支持。另外,为了适应广泛的多模态任务,书生万象模型也采用通专融合技术,具有丰富的输出格式,支持超过百种任务。
风乌气象海洋全方位预报体系,覆盖了海洋、陆地、高空三维空间的多种核心要素。从风乌第一个版本的全球中期气象预报大模型开始,通过不断的人工智能技术创新,开发了风乌Extreme、风乌短临、风乌GHR、风乌Adas和风乌ORCA一系列的气候海洋预报大模型,逐渐形成了涵盖 0- 3 小时的短邻、 0- 14 天的中短期和多年到年季尺度的全周期预报体系。
针对可能突然到来的极端小范围的天气事件,上海人工智能实验室和上海市气象局合作共同研发了强对流天气预报大模型,实现对区域 1 千米高分辨率的强降水预报。通过采用生成式模型和确定式级联建模的方式,风乌短邻预报模型可以同时建模中尺度的大气系统和小尺度的对流过程,从而准确的预报整体的强对流强度和趋势。
全球气象预报的分辨率提升是一件极具挑战性的事情,但风乌GHR仅用了不到一年时间就将分辨率从 25 千米提高到了 9 千米,首次实现基于人工智能的全球 10 公里中期天气建模与预报,其分辨率较已有模型提高了 7 倍以上,达到了全球领先水平。而且在这个版本上,进一步支持了对降水、太阳辐射、百米风速等的精准预测,以更好地满足社会各界对高精度气象预报的需求。
风乌Adas是全球首个端到端的全球气象预报大模型,通过人工智能方法同时来进行数据同化和气象预测。相比已有的方法,风乌Adas可以直接基于原始的观测数据独立运行,摆脱了现在的 AI 大模型都对物理分析场的依赖。同时,得益于 AI 算法的高效性,风乌ADA相比传统的同化方法运行效率提升了 1 000 倍以上。
中国科学技术研究所党委书记、中国软科学研究会副理事长赵志耘发布《2023全球人工智能创新指数》,该报告由中国科学技术信息研究所和北京大学共同研制,是第四次在上海世界人工智能大会上发布。
报告从基础支撑、资源与环境、国际合作交流等五大维度,通过构建三层的三级指标体系,对46个重要国家的人工智能创新、发展和治理情况进行量化评估。目标是全面、客观地反映全球人工智能创新、发展和治理的态势,并明确中国在其中的位置。
2023年的报告在保持五个基本一级指标体系框架不变的基础上,根据最新的全球进展,对二级和三级指标进行了优化和微调。例如,增加了数据基础开源项目,并调整了反映国际智力参与程度的学术交流和国际智力参与指标。
评价结果显示,中国和美国在全球人工智能创新中继续引领,46个国家形成四个梯队。中美两国在第一梯队中的优势进一步扩大。美国在五个一级指标、14个二级指标中的9个和37个三级指标中的17个排名世界第一。中国在所有一级指标上均排名全球第二,聚集了全球人工智能创新资源和成果的绝大多数。
第二梯队的国家竞争激烈,但与第一梯队的差距在进一步拉大。例如,英国在教育资源和高质量学术研究方面突出,日本在专利方面具有优势,德国在产业和应用方面,特别是人工智能风险投资和国内市场规模方面表现优异。
第三梯队中,印度连续三年排名上升,沙特阿拉伯今年首次进入第三梯队。第四梯队国家在科技研发和产业应用方面进展较弱,但也有个别国家如巴西和印度尼西亚在人工智能开源项目数和风险投资方面表现突出,显示出开源项目和人工智能应用的重要性。
全球人工智能创新发展趋势有四个特点:一是大模型突破加快了技术创新,自然语言处理和多模态模型在创新发展中起重要作用。二是产业界在模型开发上的优势扩大,2023年产研发的机器学习模型数量达176个,比学界高3.5倍。三是生成式人工智能开源项目激增,开源成为重要的创新研发模式。四是人工智能企业新增数量增长,创业创投低迷趋势有所扭转,2023年新增企业数量同比上涨21.5%。
中国在全球人工智能发展中的综合水平保持第二,在人才培养、科研产出和产业发展方面取得了明显进展,但在关键核心竞争领域没有形成绝对优势。
未来,赵志耘希望在基础支撑上进一步加强数据资源建设,健全公共数据开放共享机制,建设安全、合规、大规模、高质量的语料库。同时,加大高层次人才引进力度,创造宽容失败的科研环境。在科研科技研发创新上,强化前瞻部署和原始创新,抢抓具身智能和类脑智能的机遇。加快高水平、规模化应用,聚焦关键领域,打造具有技术先进性和规模化潜力的应用场景,推动大小模型的协同落地。
齐聚一众顶尖的人工智能专家的WAIC科学前沿会议,不仅热议当下的技术热点、展现突飞猛进的技术格局,也以一种思索技术所存在的挑战与风险的姿态,去瞭望更加远大的技术未来。
在突飞猛进的技术浪潮之中,大模型的突破极大地加快了技术创新,生成式人工智能开源项目激增,开源成为重要的创新研发模式。
未来,随着AGI这一生产力背后的生产力的进一步发展进化,我们也期待通过不断的努力和探索,推动AGI的技术突破和价值实现,为人类社会创造更多的福祉。
文章来源于“智东西”
【开源免费】DeepBI是一款AI原生的数据分析平台。DeepBI充分利用大语言模型的能力来探索、查询、可视化和共享来自任何数据源的数据。用户可以使用DeepBI洞察数据并做出数据驱动的决策。
项目地址:https://github.com/DeepInsight-AI/DeepBI?tab=readme-ov-file
本地安装:https://www.deepbi.com/
【开源免费】airda(Air Data Agent)是面向数据分析的AI智能体,能够理解数据开发和数据分析需求、根据用户需要让数据可视化。
项目地址:https://github.com/hitsz-ids/airda
【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。
项目地址:https://github.com/Significant-Gravitas/AutoGPT
【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。
项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md
【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。
项目地址:https://github.com/InternLM/xtuner