内容导读
12月28日,2024中国信通院ICT+深度观察报告会上海分会场暨“虹桥之源”大模型驱动数字经济新生态峰会在上海长宁召开。
会议首次深度聚焦大模型,邀请了众多学者、专家论道AI前沿技术创新和落地应用实践。会议中,学者们就当前AI发展现状达成共识:以十至二十年为周期,目前大模型还处在起步阶段,2024年围绕行业应用会“落子不断”。
围绕当前AI大模型行业落地中的挑战,这些专家、学者也基于自己的观察,从算力、数据、算法出发,围绕医疗、通信、城市管理、金融服务等领域,给出了一些“最优解”。相信AI应用中遇到的大多数问题,都能在这次会议中找到答案,本文为演讲实录,enjoy~
内容目录
阿里云:AI与算力驱动产业创新
阿里云产品与解决方案研发部产品总经理 许呙兢
从IT时代、互联网时代到智能时代的演进过程中,产业发展和公司市值经历了巨大变化。
在传统软件时代,许多巨头公司打造了千亿市值;互联网+时代,苹果等公司达到了万亿市值。
进入万物互联和大模型时代,我们预见将出现十万亿市值的公司。
这不仅代表技术巨头的垄断,更意味着技术的普惠。
人工智能和大模型的发展带来的不仅是技术革新,更是产业与技术融合的新机遇。
我们目睹了众多创业公司的诞生,这些新生企业的涌现预示着产业发展将比以往任何时代都更加繁荣。
在新的智能时代,云计算的体系可能会发生变化。传统的IaaS、PaaS、SaaS可能会被模型服务所取代。
如果能将模型作为服务提供给更多开发者和合作伙伴,将会创造出更多创新场景。
AI时代的新挑战
阿里云致力于打造AI时代最开放的云。
为了实现这一愿景,重点放在三个主要领域:首先是构建AI时代关键的计算基础设施,其次是以模型为中心来加速创新,最后则是构建一个繁荣且开放的生态系统。
在智能时代,数据中心的概念经历了重新定义,从处理大量数据的集群转变为能够连接异构计算芯片进行高效预训练和推理的高效计算枢纽。
对基础设施提供商来说,这意味着面临新挑战。
大模型训练尤其面临四大挑战:
首先,梯度下降等步骤需要大量数据在机器之间传输,对网络速度和稳定性要求极高;
其次,复杂的训练算法需要依赖高效的数据处理和算法优化;
第三,如何在指定的计算和网络资源下实现效率和成本的最优平衡;
最后,面对硬件故障,如何有效地迁移任务和恢复系统。
针对这些挑战,灵骏的平台依靠高速网络、网络容错技术和强大的平台调度能力。
这不仅提升了预训练和SFT的效率,还实现了集群内机器的动态扩展,确保在智能时代,数据中心依旧能像一台高效的超级计算机般运作。
训练是大模型应用体系中的一个重要环节,但在实际应用中,推理的效率和成本同样关键。
当下,虽然许多创业公司和研究团队专注于大模型的预训练,但真正的挑战在于如何将大模型有效地应用于实际场景中,确保模型在推理阶段的高效、低成本运行,并能够适应动态的负载需求,特别是在全球不同地点进行推理时。
阿里云的灵积平台通过显著提升吞吐能力和计算效率,高达4倍的吞吐提升和8倍的计算资源节约,并支持快速动态扩容,全面支撑大模型从训练到推理的生命周期。
同时,它服务于政企行业,通过专有云和混合云体系优化基础设施,提高训练效率和稳定性。
此外,平台还支持行业特定模型的开发,并通过API提供,使终端APP创业者和用户能够便捷地调用,加速大模型技术的广泛应用和发展。
阿里云的AI大模型行业落地
我们开发了多个专门的应用来结合大模型技术和特定场景需求:
听悟用于结合语言模型和文本生成会议摘要;
星尘用于构建角色;
灵码是一个编程辅助平台,它可以自动生成代码注释,帮助那些不喜欢写注释的程序员;
晓蜜适用于客服场景;
点金用于金融领域;
智文帮助用户分析和总结论文,尤其在医药和其他行业领域中的应用;
法律领域有法睿;
仁心则面向终端用户提供医疗知识查询。
这些应用通过大模型技术实现了功能的创新和服务的优化。
阿里云推出了两项关键技术模型:通义千问和通义万相,分别用于语言理解和图像生成,满足创意及图像场景需求。
自2021年以来,阿里巴巴集团深耕大模型研发,推出了M6、M6-oba系列和千亿参数的通义千问2.0版本,即使在Chat GPT引起广泛关注的背景下,阿里云的模型在国际上仍表现出色。
特别值得一提的是,阿里云开源了72B、7B、14B及1.8B参数模型,推动了模型社区的快速发展,并且在提供更长上下文、角色设定和语言风格等方面展现了出色的性能,极大地促进了应用开发的微调过程。
同时,阿里云还建立了中国最大的模型社区:魔搭社区(ModelScope)。
其聚集了2300多个高质量开源模型,实现了亿级下载量,为开发者提供了丰富资源和广阔的创新平台。
魔搭社区不仅开放了各种模型,还提供了约600个数据集,支持开发者进行全面的模型训练和创新,超越了仅依赖现有数据的局限。
社区通过提供大量免费的GPU资源(累计3000万GPU小时)大幅降低了技术门槛,促进了模型开发和应用。
尽管将模型应用于行业数字化场景仍在探索阶段,魔搭社区正不断推进模型的实际落地和广泛应用。
阿里云也在探索Agent体系作为一种解决软件开发和现实世界不确定性问题的有效方法,旨在重构数字化软件开发的过程,而不仅仅是构建一个个人助理。
这种探索代表了对模型和智能体系更深层次的理解和运用,旨在为不同行业提供更精准、高效的数字化解决方案。
阿里云对未来AI大模型的思考
在整合模型应用于产业和行业时,单一的基础模型或行业模型并不足够;
它们需要与决策问答、情感分析等多项智能能力相结合,并融合各种AI技术来构建针对特定领域的解决方案。
这包括模型训练、应用、管理、评估及安全性提升,并可能涵盖第三方技术的集成,以增强模型的决策和知识处理能力。
因此,需要构建一个全面的系统,包含平台和工具链,以便快速有效地将模型整合并应用于实际行业,覆盖从数据处理到智能化应用的全流程。
在实际场景中,单个大模型或者混合专家模型(MOE)往往不足以应对复杂多变的需求。未来的发展方向在于整合多个模型、行业规则和系统接口,通过AI Agent来完成复杂的工作流。
AI Agent不仅仅是简单的助手或搜索工具,而是能够解决实际行业问题的综合系统,集成了多年来积累的行业知识和小型模型,具备长短期记忆和规划能力。
这种转变可能导致数字化系统的重构,改变我们对软件开发和运维的理解。
我们期待通过Agent的建设,与行业同仁和伙伴一同探索和实现软件行业的重构,为未来的模型开发和应用带来更大的价值和成果。
OPPO:大模型在终端中的应用场景与演进
OPPO终端安全总经理 王安宇
回顾手机的发展,从最初的功能机到当前广泛使用的智能手机,可以看到技术的演进是逐步的。
目前,我们正站在智能手机向智慧手机过渡的门槛上,这是移动通信技术每十年大约迈进一代的自然结果,显然我们目前处于5G时代,并且已经开始探讨5G之后的技术,包括5GA和6G。
在这个发展过程中,移动通信不仅改变了我们个人的工作和生活方式,还成为推动经济发展的重要力量。
向前看,随着5G及其后续技术的不断发展和成熟,智慧互联时代的到来将使得在线会议、虚拟现实、在线娱乐等服务更加普遍,进一步改善我们的沟通方式。
从1G的模拟信号到5G时代的丰富智慧终端,每一次技术的飞跃都极大地推动了社会的进步。
我们有理由相信,随着5G、6G等更先进技术的发展,未来的终端设备将不仅仅是智能的,而是更加智慧化,为我们带来更全面的互联体验和生活方式。
通信场景下的AI大模型
回溯至1954年,人工智能的概念首次被提出,后续发展至机器学习让机器具备自我编程和学习的能力,进一步演变为基于深度神经网络的深度学习。
现在,生成式AI,如ChatGPT,作为这一领域的典型应用,已广泛应用于多个场景。
大模型作为深度学习的一个分支,已迅速成为AI研究的主流。
它的应用场景大致可分为六类,包括问答、情绪分析、信息提取、图像命名、物体识别和跟随指示等。
随着技术的发展,大模型在各领域的应用将进一步深入。
值得一提,大模型在终端设备上的应用是一个正在探索的领域。这涉及到AI+C的概念,其中"C"代表连接、创造、理解和陪伴。
例如,大模型可以用于改善老年人的手机使用体验,通过自然语言理解帮助他们更好地使用智慧设备。
此外,大模型还可应用于旅行中的智慧连接体验、基于情景的服务提供,以及智慧办公场景如自动生成会议纪要等,极大地提升工作效率和生活质量。
四个C的概念如下:首先Connection(连接),大模型可以用于智慧终端的连接,提升旅行或日常生活中的体验。
例如,与东南亚的初创厂商合作,使用大模型技术丰富旅行过程中的体验。
其次,Creation(创造),大模型可以激发创意表达,比如增强手机摄影能力,或者在拍摄长城时自动去除照片中不需要的路人,提升创意和个性化体验。
第三,Comprehension(理解),大模型能够基于情景理解提供服务,如对于前往新加坡旅游的情景,提供针对性的服务和建议,从而使手机成为更智慧的旅伴。
最后,Companion(陪伴),大模型可以作为智慧办公的伙伴,自动化处理诸如邮件回复、会议纪要等任务,大幅提升工作效率和便捷性。
智慧终端的AI应用
根据A16Z对2024年消费者技术的四大预测,可以预见的第一大变化是语言优先的交互方式。
如果能够实现语言优先,我们与智慧终端的交互体验将得到显著提升,移动设备的使用将变得更加高效和直观。
第二个预测是更多适合垂直领域的小模型的出现。
在某些应用场景下,例如生成会议纪要,我们可能不需要庞大的全功能模型,而是小而专一的模型就能满足需求,这体现了消费者技术的演进和AI的垂直应用。
手机的初衷,是实现远程通信。现在,我们看到的是智慧交流和跨语言交流的潜力,这预示着智慧手机不仅是通讯工具,也是连接世界的桥梁。
目前手机在家庭教育、运动健康等方面也有应用,如智能辅导作业、提供健康建议等,这些都可利用本地大模型,确保数据隐私和安全的同时提供有用的服务。
智慧手机的目标是实现高效工作、便捷生活和个性表达。
我们预见未来不仅是智慧手机,还将进入到泛载CPS的时代。
CPS即物理世界和虚拟世界的交互,预示着在这样的世界中,交互将变得更智能,连接将变得更广泛。
在2030年的智慧生活中,"可信"和"泛载"将成为两个关键词。
我们相信,随着大模型的蓬勃发展,其在终端设备上的应用将为我们的工作和生活带来更多益处,提供更有趣、更丰富的体验。
优刻得:构筑垂直大模型算力底座
优刻得公司副总裁 文天乐
GPT大模型的技术起源于谷歌的翻译技术,随后OpenAI等企业通过多年技术提升,才在2023年3月发布了具有显著市场影响力的产品。
目前,国内已有超过100家企业跟进这一技术路线,取得了诸多成果。
GPT3.5发布后展示的智能体验为企业应用开辟了广阔的想象空间。
大模型的训练是一项智力密集和算力密集的活动,这通常意味着巨大的资金投入。
基本模型的训练依赖于万亿级互联网数据的积累和数千张GPU卡的规模,通常需要数月时间,再加上高质量数据的整合和有监督的强化学习,才能实现相较于传统人工智能的智能体验。
垂域大模型构建的三种实践路径
对于企业而言,构建自己的垂直大模型有几种途径。
如果不考虑资金和人力成本,可以从头开始训练大模型,使用自己的数据加上通用数据进行充分训练,这样可以获得最佳效果和性能,但需要较大的资金投入。
企业构建垂直大模型,第二种方式是利用开源模型或厂商提供的模型,并使用企业自己垂直领域的私有数据进行微调训练。
这种方法可以达到相对较好的效果,且训练成本会大幅降低,但推理成本依然较高。
第三种方式是企业在尝试使用大模型时,选择不进行训练或仅进行微调,而是将业务数据象量化后加入模型上下文中以进行业务尝试。
这种方法考虑到了现实世界的应用限制,即训练或微调的模型难以实时更新,因此通常结合第一种和第三种方法,或第二种和第三种方法来使用。
考虑到业务数据的持续变化,重新训练模型是成本高昂的,尤其是在数据安全和隐私合规方面,所有企业、政府单位的数据都是在网络安全法前提下处理,这也是垂直领域大模型应用的一个关键问题。
构建垂类大模型需考虑的因素
在实际应用时,不仅要考虑训练和推理成本,还要注重数据安全、合规和管理。
因此,许多企业和机构在尝试大模型时也在探索国产化和线上化的私有部署方案,以确保数据安全和合规性。
对于政府和其他受监管行业而言,自主可控的问题也是不可忽视的。
另外,算力密集型的大模型应用还涉及高能耗问题,在训练过程中尤其明显,且模型通常以月为单位迭代更新,这导致巨大的能源消耗。
我们在乌兰察布部署的云基地旨在为大数据和人工智能提供低成本的算力中心,以解决几个关键领域的问题,包括数据的长期存储。
特别是随着2023年AI大模型的爆发,对电力和算力的需求急剧增加,乌兰察布的新型IDC能够提供8-12千瓦的针对大模型训练的机柜定制服务。
大模型训练完毕后,为了更好地接近用户和应用,推理过程可以转移到沿海东部地区进行。
除了基础的高性价比算力中心,大模型的训练、部署和应用还需要软件和运维的基础设施。
这涉及到频繁更新迭代部署的需求,包括基于私有云的适配各种GPU卡和硬件,以及国产化、信息安全信创化硬件和开源模型技术应用到开源框架的适配。
在为企业应用提供大模型解决方案方面,我们已经适配了多种硬件,并提供了一体化的方案。
此外UCloud为人工智能和大数据提供了三大价值:一是东数西存,二是东数西算,三是东推西训。
这些策略符合国家的东数西算战略和双碳战略,利用西部地区相对较低的综合能源成本和较低的平均气温,用户可以在西部地区享受到高性价比的存储和算力服务。
华为:构筑智能根基,共建AI新生态
华为上海战略与Marketing部部长 房思哲
2022年11月份,ChatGPT引发了AI大模型的新热潮。
这一趋势不仅是技术上的拐点,将AI从传统的感知、识别进化至生成阶段,也是应用上的转折,预示着AI将深入千行百业。
华为在这一趋势中一直在构建全栈能力,从2020年开始,我们就已经认识到大模型的潜力,并致力于AI的基础软硬件,以此深化我们的根基技术,并推动AI大模型的创新。
我们从最底层的AI加速硬件做起,提供了端到端的产品线,包括异构计算框架、高性能算子库等基础加速库。
基于这些硬件,我们建立了适合大模型的昇思人工智能框架,进而构建了昇腾应用使能MindX,包含了深度学习、智能边缘等各种优选模型库和行业SDK,使得各行业的应用能在此基础上孵化。
华为构建AI大模型生态
谈及大模型的根基,我们认为大模型真正走进千行百业不仅仅是技术问题,还需要社会化视角和生态化理念。
根基只是起点,我们需要的是一棵枝繁叶茂的树,即生态。
自2020年以来,在过去的3-4年里,华为在计算产业领域坚持了“硬件开放、软件来源、使能伙伴、发展人才”的16字方针的生态理念。
接下来,我将分别介绍我们在这四方面的进展。
硬件开放:华为推出了自己的人工智能芯片,并且开放硬件平台给合作伙伴,允许他们基于华为的技术开发和打造各种产品,以满足各行各业的需求。
软件来源:在软件方面,华为的昇思人工智能框架作为构建AI大模型生态的核心,支持各种异构芯片,并孵化各种行业应用。
使能伙伴:华为依托生态创新中心,推进本地合作伙伴的使能工作,包括生态发展、联合创新、技术支持和人才培养。
发展人才:华为与国家教育部联合开发课程教材,推广至全国高校。通过举办人工智能创新大赛、师资培训等活动,华为旨在培养更多熟悉中国自主人工智能技术的学生和教师,为产学研转化做好准备。
华为AI大模型的上海探索
在上海,华为围绕大模型应用进行了一系列合作和探索。
举几个例子来说明我们在这一领域的进展。
在今年7月份的上海人工智能大会上,我们与上海飞机设计研究院共同发布了“东方·翼风”,这是一款基于华为昇腾和昇思人工智能根技术共同孵化的三维机翼仿真流体和力学仿真大模型。
这个大模型在上海飞机设计研究院实测后显示,在保持与传统工业仿真相媲美的精度的同时,效率得到了大幅度提升,仿真时间消耗降低到原来的千分之一,为大飞机设计和制造带来了明显的助力。
此外,我们还与中科院上海药物所、以及上海人工智能研究院、商汤、综合装备院、达观数据等多家企业在上海展开了深度合作,围绕各行各业想要孵化和打造的大模型场景进行了多方位的探索和合作。
我们的目标是坚信人工智能最终将走入千行百业,通过这些合作项目,我们在实现这一目标的路上迈出了坚实的步伐。
百度:AI原生应用触手可及
百度智能云产业发展部总经理 段永华
这一年,我们见证了大模型的从理论到实用的转变。尤其内容创作、互动交流、教育和游戏等领域的应用逐渐增多。
然而,从10年或20年的长周期来看,大模型目前仍处于起步阶段。它的能力存在一定的局限性,在应用落地层面,仍需要进行相对复杂的工作。
百度智能云千帆大模型平台的行业实践
百度公司推出了千帆大模型平台,继续在AI领域的应用开发上深耕细作。
百度从2019年起投入大模型研发,并已形成从底层硬件到应用层面的一站式服务能力。
百度的整体系统包括数据处理、工具链、模型广场到AI衍生应用,能够提供全方位的技术支持。
在深入讨论大模型未来应用前景时,重要的是采取以终为始的思考方式。
目前广泛认可的大模型应用不单是一个单体模型,而是一个由基础大模型、行业特定模型、场景化模型组成的体系。
这个体系不仅包含云端、汽车端到手机端的大小不一的模型,所有这些模型都需要有机协同工作以支持整个企业应用生态。
尤其是在城市管理和金融服务等大型企业应用体系中,需要一个综合的模型体系来发挥作用。
为此,更需要一套系统化的体系和机制来管理、调度和协调这些模型。
从统计数据来看,众多客户已在百度千帆平台上开展服务,表明各行各业正在开发并实施具体的商业化应用。
这标志着行业处于初步阶段,并预计将在2024年以更快速度向各行各业扩散。
然而,在基于大模型的应用开发中,也面临着多重挑战。
模型的精细调整通常既困难又需要专业知识,而大模型技术人才相对稀缺,这对许多企业尤其是小型企业来说是一个挑战。
同时,有数百上千个大模型可供选择时,需要一套评估机制和方法来决定哪个模型最适合特定场景。
最近,百度升级其千帆平台,集成全球优秀模型并优化模型调整、评估及推理,以数据和安全增强提高企业效率并降低成本。
这些改进不仅加快模型到业务应用的转化,还使企业通过高效的在线训练方法更好地利用数据,降低时间和成本。
在大模型选择和应用方面,百度提供了综合的评价体系,结合AI自动打分和专家评分,以帮助企业和合作伙伴挑选最适合的模型。
面对推理资源限制,百度支持无损推理加速和国内信创硬件适配,确保模型部署和训练的顺畅进行。
应用开发领域内,百度利用大模型的AI原生应用生成工具及完整开发套件,使技术人员可以进行深度定制和开发。
同时,将传统确定性模型能力与大模型能力整合,预见这些能力将融合进未来的基础大模型。
作为大模型提供商,百度还融合其云计算服务,提供全面的云产品和服务,以支持更广泛的应用和发展。
九章云极DataCanvas:AI原生企业的黎明
九章云极DataCanvas副总裁 于建岗
当前正处于一个以大算力为特征的时代,全球范围内积极推进算力建设,英伟达以其在GPU市场的主导地位和业务多元,凸显了这一趋势。
同时,2023年美国股市的显著上涨和SaaS企业收入的下滑反映出新时代的复杂性与挑战。
这些现象促使深入思考AI2.0或新智能时代下,企业系统可能面临的颠覆性变化、重塑以及软件生态的智能化重构。
AI大模型变革IT建设
过去20年,企业在收入的驱动下大量投入IT建设,为满足公司的数字业务需求,中至大型企业广泛建立庞大的IT部门。
然而,这一过程也引入了诸多复杂性和协同问题。
例如,过于庞大的IT部门导致组织内协同困难,业务部门与IT部门之间的沟通不畅,以及采购多样化SaaS服务带来的一致性问题。
这些问题最终阻碍了业务创新的速度和效率。
特别是在大模型时代的到来,这种情况更加凸显。
大模型,广义上不仅仅是大语言模型的对话体验,也开始延申到例如蛋白质结构预测、机器人等应用领域。
这些先进的技术为人类社会带来深远的影响。
因此,企业在数字化建设上需要重新定义策略,以适应这一新的大模型时代。
而IT部门的角色和操作模式,特别是在收入驱动和效益创造方面,也必须进行相应的调整和优化,以保持企业的竞争力和创新能力。
在大模型的时代中,企业正面临如何利用大模型推动业务发展和创造利润的挑战。
关键在于将业务部门置于核心,驱动IT建设和智能化升级,因为业务部门深谙资金来源、业务路径和客户需求。
新时代的解决方案:模型即服务
观察软件行业的发展历程,从基础设施即服务(IaaS)到平台即服务(PaaS),再到软件即服务(SaaS),虽然带来了便利,但也引入了割裂、分割和碎片化的问题。
业务需求通过繁琐的部门流程,导致项目延误,甚至半年后也难以启动。
SaaS服务尽管有其优势,但也不可避免地带来了传统软件固有的问题。
为了解决传统软件建设中人才价值未能充分发挥的问题,新时代的解决方案趋向于采用大模型和模型即服务(MaaS)来覆盖企业全员,释放各自的专长和创意。
这些技术允许员工利用自然语言处理和其他灵活、多样的工具,轻松实现业务诉求,而不需要深入了解复杂的底层技术。
这种方式极大地简化了创意到实现的过程,让员工可以更直接地将想法转化为具体成果。
以绘画为例,过去可能需要通过画家来理解并转化一个人的想法,而现在,员工可以直接与工具交流,即刻得到所需的绘画成果,极大地提高了效率和创造力的发挥。
在这样的环境下,企业可以更加聚焦于构建平台,让每个员工都能在这样的平台上最大限度地发挥其价值。
未来的企业,将远离传统的、重度依赖专业开发人员的软件开发模式。
曾经的开发人员,或"码农",喜爱使用传统的IDE工具和手写代码,但未来的趋势是采用更加图形化的界面,通过拖拽等直观操作来解决问题,使得软件开发和业务实现更加民主化和普及化。
这不仅限于少数具有专业编程技能的人员,而是让更多员工能够参与到创新和解决方案的制定中来。
低代码平台革命性地简化了业务逻辑或软件逻辑的实现方式。
每个具有独立思维的个体都能通过直观的用户界面(UI)与机器或大模型交互,用自然语言指示完成所需任务。
这种基于简单UI和自然用户界面(NUI)的互动方式,大大降低了技术门槛,使得非技术人员也能轻松实现复杂的工作。
这种方式不仅限于日常业务逻辑的实现,还可用于数据分析、代码编写和内容创作等多个领域。
例如,在做业务分析时,用户可以简单询问与之前报告的变化或对比不同地区的投资策略;在软件开发方面,用户可以直接请求生成一个特定规格的程序,如128×128方块的扫雷游戏;在内容创作方面,用户甚至可以指导大模型创作一篇文章。
九章云极DataCanvas的大模型实践
九章云极DataCanvas近期推出了新一代大模型应用产品-TableAgent,使得企业用户能够更直接、更高效地利用大数据和人工智能。
例如,通过自动识别数据表中的信息,系统能够根据用户的询问,分析并呈现所需信息,如连锁酒店各地入住率的比较、原因分析等。
这种智能化平台不仅提供结论,更能逐步引导用户理解结果背后的逻辑和因素,实现深度洞察和决策支持。
这样的发展,标志着企业进入了一个基于智能化平台的新时代。
在此背景下,九章云极DataCanvas开源了基于Alaya基座的大模型,融合了丰富的行业知识和训练改进,通过自然语言界面实现数据比较、预测和修正,极大简化了用户与数据的交互过程。
在知识库和问答系统普及的背景下,九章云极DataCanvas也致力于开发知识管理系统。我们预测未来公司流程可能被数字员工执行,从而提升企业管理效率。
该系统体现了从传统到智能变化的六个阶段,包括视频分析等多功能应用,用户可以使用这些系统编写不同语言的代码,解决各种问题。
OpenAI正致力于打造一个类似苹果生态的闭源IOS,通过ChatGPT等工具推动API的广泛使用,激发各种应用程序(APP)的创造,以满足用户需求。
在这个以大模型支撑的基础上,三大领域被认为具有巨大潜力:
第一、APP tooling(APP工具)。如何做出一系列不同用途、不同场景的APP tooling,满足用户的需求?
第二,基于大模型的computing framework和LLMOps (大模型训练、微调、推理和监控框架)如何实现?
第三,GPU Clouding。OpenAI做IOS生态,未来也一定会出现一个安卓生态系统,基于GPU Clouding可以在上层生成丰富的application(应用程序),进而满足不同用户的需求。
九章云极DataCanvas响应这一趋势,不仅研发出具有“通识+产业”系列模型矩阵的DataCanvas Alaya九章元识大模型,并基于九章元识打造出灵活高效的Alaya Enterprise(九章云极DataCanvas企业自有AI架构),通过Alaya GCP对AI资源的有效调度和管理,有力支撑企业在顶层自主化开发各类AI应用,加速企业的数智化建设翻开崭新篇章。
九章云极DataCanvas的愿景不仅局限于现有的技术和市场需求,而是希望通过AI和智能化链接(Alaya link),帮助企业用户数字化建设推向新的阶段。
他们看到了企业流程的复杂性,并希望通过AI生成技术简化和自然处理各种业务需求,展望一个充满信心和阳光的未来。
科大讯飞:星火大模型技术进展及生态赋能
科大讯飞(上海)科技有限公司总经理 丁瞳瞳
自ChatGPT3.5去年发布以来,通用人工智能技术已经深刻影响了我们的生活和工作。
据高盛预测,未来十年通用人工智能将带来超过7万亿美元的产值。
最近的战略技术趋势报告和中央经济工作会议也都强调了通用人工智能的重要性和其对生产、生活方式的影响。
AI大模型的四个能力
语言大模型和通用人工智能的发展一直是行业关注的焦点,然而,真正理解通用人工智能、大语言模型及相关技术并非易事。
在GPT3.5提出的48个核心任务基础上,结合科大讯飞开放平台超过400万开发者提供的数据分析,人工智能模型的能力主要集中在四个方面:文本生成的语言模型、自然语言理解、知识问答以及智能涌现。
语言模型的文本生成,这不仅仅是关于生成文本或语言,更是关于模拟人与人之间自然边界的交互方式,实现人机对话。
自然语言理解能力强化了机器对语言的深层理解,而GPT4的发布,结合现存知识库,取得了显著的进步。
而智能涌现是一个特别引人注目的现象,其中重要的能力包括逻辑推理、数学能力及多模态交互能力。
这意味着大模型不仅仅是在训练范围内进行应答,而是通过智能涌现的方式,像生物一样呈现出智慧化的应用。
尤其是今年下半年,随着各个厂商对百模、千模的代码能力发布和应用的提升,大模型的智能涌现能力得到了巨大增强。
人工智能大模型正在颠覆传统的工具和应用开发方式。
传统上,基于数据经济和社会环境下的应用开发需要创意、内容、文案以及技术编程能力,或者雇佣专业的编程团队。
然而,现在,从创意产生到实际实践,效率可能提高了10倍甚至100倍。
自主可控发展的三个维度
在介绍了对大模型及通用智能时代的理解后,现转向探讨认知大模型在中国自主安全可控发展的关键要素。所谓的自主安全可控,主要涵盖三个维度。
在算法和技术的安全可控方面,尽管人工智能领域的关键论文多起源于美国,但当前在大模型相关算法的研究上,并没有显著差异。
尤其是在坚持人工智能核心技术的研究上,从文本到语音识别,科大讯飞已经取得显著的进展。
过去十年,从最初应用深度神经网络到语音识别,再到最近对预训练模型的优化,科大讯飞在提升算法效率和理解精度方面取得了显著进步,特别是在处理中文内容方面。
在数据方面,大模型的效果很大程度上依赖于数据的质量和量。
对中文语料的训练尤其关键且充满挑战,由于行业壁垒和安全保密的需求,高质量中文数据相对稀缺。
然而,随着中国网络空间安全协会发布首批中文基础语料数据库,标准化、高质量的中文语料库将不断扩大,预计将极大促进大模型技术研发应用的生态。
在算力方面,由于国际政策限制,获取顶尖芯片变得更加困难,尤其是美国政府对半导体出口限制,进一步加剧了这一挑战。
尽管存在困难,行业正在积极寻找解决路径,确保人工智能技术的持续发展和创新。
科大讯飞自2019年被列入美国实体清单后,对外部高端计算资源的获取受到限制。
面对这一挑战,公司采取了积极应对措施,首先是通过集中公有算力资源,发布了规模庞大的百亿参数大模型。
在此过程中,华为等国内优秀企业的合作发挥了关键作用,共同攻关,推动了大模型技术的发展。
AI大模型的场景应用
当前,以认知大模型为代表的通用人工智能正深刻改变各行各业,从教育、办公、汽车、运营商、金融、工业、疫苗等各个方面,其影响力已无庸置疑。
科大讯飞认为,认知大模型的作用不仅仅局限于写诗绘画等创造性任务,更多的是服务于生产力的提升。
在应用场景方面,大模型正帮助企业实现研究、生产、供应、销售、管理和服务等全流程的优化。
在中国,尽管头部企业及科技公司能够在通用人工智能方向进行自研或合作发展,但众多中小、小微企业亦迫切需要人工智能能力,却往往缺乏相应的技术鉴别力。
科大讯飞响应这一需求,科大讯飞与工信部下属专注于服务中小企业的互联网平台合作,帮助企业在研发、生产、供应、销售、服务等全流程中提高效率。
同时,将来可能70%的应用程序将由低代码或无代码平台构建,科大讯飞响应市场需求,于8月份推出了基于代码的解决方案。
通过内部研发平台的应用,短短3个多月的时间内提升了代码的采纳率和编译效率,显著提高开发效率和质量。
科大讯飞的创新技术在提高编程效率和可达性方面有两个显著的贡献:
首先,该技术使得完全没有代码编译基础的人也能通过自然语言交互方式进行代码的编译、生成、运行以及修改。
这极大降低了编程门槛,使得编程更加普及化,为非专业人士提供了进入编程世界的便捷通道。
其次,对于已经在进行代码开发的人员,科大讯飞的技术能够显著提高编程效率。
通常程序员编写代码时往往忽略编写注释,这是一个普遍现象。
然而,通过标准化的代码分平台编译,不仅可以提高代码的结构稳定性和快速生成性,而且在编码质量上可以达到中级程序员的水平。
科大讯飞结合大模型技术开发的C端产品在双11期间显示出显著的应用效果。
公司赋能的七个产品品类,包括办公本、录音笔、学习机和智能耳机等,均搭载了讯飞星火大模型的能力。
在京东、天猫等平台的七个品类中获得销售冠军,即使在整体双11购物环境下滑的情况下,仍实现了126%的销售增长。
最后总结三个观点:首先,在认知智能大模型方面,中国不会受制于人,同时也理性认识到与国际顶尖产品如ChatGPT4.0的差距,我们有信心在未来会迎头赶上。
其次,人工智能的发展需要产、学、研、用等多方面的合作,希望形成中国在通用人工智能领域的综合比较优势。
最后,建议国家在数据算力方面积极布局,鼓励国家实验室、科研机构、高水平大学和科技领军企业在战略发展过程中发挥更大作用。
“AI+”科技战略规划实战营
第1讲:深度复盘华为发展五大阶段的战略历程启示录与DSTE实战体系!
第2讲:BLM模型与战略突破:下一个十年,商业的底层逻辑变了!如何战略性增长!
第3讲:为什么华为猛将如潮、执行有力?战略解码体系与战略领导力模型功不可没!
第4讲:华为如何“五看”市场?!一篇文章读懂市场洞察必须的产业思维+产品思维!
第5讲:为什么华为强调“价值驱动业务设计”?“商业画布”之父告诉你怎么用好“商业画布”!
第6讲:华为的业务设计为什么能够持续成功?任正非采用了哪种致胜的企业家战略?
第7讲:企业战略如何形成?华为的组织绩效管理三大原则是什么?
第8讲:人工智能的“狂飙”时代,如何设计“AI+”商业模式?
第9讲:AI视频生成模型集体“狂飙”,创作边际成本会降到零?生成式AI“数据智能”如何演进?
第10讲:如何打败“系统思考缺乏症”,设计企业战略的系统之美?!
END
文章来自于微信公众号 “王铮Silvia”
【开源免费】n8n是一个可以自定义工作流的AI项目,它提供了200个工作节点来帮助用户实现工作流的编排。
项目地址:https://github.com/n8n-io/n8n
在线使用:https://n8n.io/(付费)
【开源免费】DB-GPT是一个AI原生数据应用开发框架,它提供开发多模型管理(SMMF)、Text2SQL效果优化、RAG框架以及优化、Multi-Agents框架协作、AWEL(智能体工作流编排)等多种技术能力,让围绕数据库构建大模型应用更简单、更方便。
项目地址:https://github.com/eosphoros-ai/DB-GPT?tab=readme-ov-file
【开源免费】VectorVein是一个不需要任何编程基础,任何人都能用的AI工作流编辑工具。你可以将复杂的工作分解成多个步骤,并通过VectorVein固定并让AI依次完成。VectorVein是字节coze的平替产品。
项目地址:https://github.com/AndersonBY/vector-vein?tab=readme-ov-file
在线使用:https://vectorvein.ai/(付费)
【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。
项目地址:https://github.com/Significant-Gravitas/AutoGPT
【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。
项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md
【开源免费】FASTGPT是基于LLM的知识库开源项目,提供开箱即用的数据处理、模型调用等能力。整体功能和“Dify”“RAGFlow”项目类似。很多接入微信,飞书的AI项目都基于该项目二次开发。
项目地址:https://github.com/labring/FastGPT
【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。
项目地址:https://github.com/InternLM/xtuner