ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
豆包文科成绩超了一本线,为什么理科不行?
9046点击    2024-07-01 15:22

什么?好多大模型的文科成绩超一本线,还是最卷的河南省???



没错,最近就有这么一项大模型“高考大摸底”评测走红了。


河南高考文科今年的一本线是521分,根据这项评测,共计四个大模型大于或等于这个分数,其中头两名最值得关注:


  • GPT-4o:562分

  • 字节豆包:542.5分

  • ……

从结果中来看,GPT-4o的表现依旧是处于领先状态,而在国产大模型这边,比较亮眼的成绩便属于豆包了。


并且在语文历史等科目的成绩甚至还超越了GPT-4o。


这也让不少网友纷纷感慨:


AI文科成绩这么好,看来在处理语言和逻辑上还是很有优势的。



不过有一说一,毕竟国产大模型的竞争是如此之激烈,这份评测的排名真的靠谱吗?发布仅数月的豆包,真具备此等实力吗?以及这数学……又是怎么一回事儿?


先看评测榜单


要回答上述的问题,我们不妨先来查一查豆包在最新的权威评测榜单中的表现是否一致。


首先有请由智源研究院发布的FlagEval(天秤)。


它的评测方式是这样的:


  • 对于开源模型, FlagEval会综合概率选择和自由生成两种方式来评测,对于闭源模型, FlagEval只采用自由生成的方式来评测,两种评测方式区别参照。

  • 主观评测时部分闭源模型对极小部分题目有拒绝回答的情形,这部分题目并没有计入能力分数的计算。

“客观评测”这个维度上,榜单成绩如下:



不难看出,这一维度下的FlagEval中,前四名的成绩是与“高考大摸底”的名次一致


大模型依旧分别来自OpenAI、字节跳动、百度和百川智能。


并且豆包在“知识运用”和“数学能力”两个维度上成绩还高于第一名的GPT-4。


若是将评测方式调节至“主观评测”,那么结果是这样的:



此时,百度的大模型跃居到了第一名,而字节的豆包依旧是稳居第二的成绩。


由此可见,不论是主观还是客观维度上,前几位的名次都是与“高考大摸底”的成绩是比较接近的。


接下来,我们再来有请另一个权威测评——OpenCompass(司南)。



在最新的5月榜单中,豆包的成绩也是仅次于OpenA家的大模型。


同样的,在细分的“语言”和“推理”两个维度中,豆包还是超越了GPT-4o和GPT-4 Turbo。



但与专业评测冷冰冰的分数相比,人们都对高考有着更深刻的体验和记忆。


那么接下来我们就通过豆包回答高考题,来看看大模型在应对人类考试时的具体表现。


再看实际效果


既然目前许多试卷的题目都已经流出,我们不妨亲测一下豆包的实力。


例如让它先写一篇新课标I卷语文的作文题目


随着互联网的普及、人工智能的应用,越来越多的问题能很快得到答案。那么,我们的问题是否会越来越少?

以上材料引发了你怎样的联想和思考?请写一篇文章。

要求:选准角度,确定立意,明确文体,自拟标题;不要套作,不得抄袭;不得泄露个人信息;不少于800字。



结果由豆包PC端对话生成


从豆包的作答上来看,是已经摆脱了AI写作文经常犯的“首先-其次-以及-最后”这种模板式的写法,也擅长引经据典来做论证。


但毕竟每个人对于文笔的审美标准不同,因此豆包高考作文写得如何,评价就交给你们了(欢迎在留言区讨论)。


值得一提的是,在量子位向豆包团队询问后得知,原来豆包PC端对话手机端“拍题答疑”是两种截然不同的招式——


前者走的是LLM链路,后者走的则是RAG链路(若是用豆包手机端“拍题答疑”功能,高考数理化成绩也能接近满分)。


加上在这次“高考大摸底”评测出炉之后,很多网友们都将关注的重点聚焦到了数学成绩上:


AI也怕数学。



因此,接下来的实际效果测试,我们就将以“LLM链路+数学”的方式来展开。


先拿这次的选择题来小试牛刀一下:



当我们把题目在PC端“喂”豆包之后,它的作答如下:



因此,豆包给出的答案是:


A、C、D、D、B、B、A、A

这里我们再来引入排名第一选手GPT-4o的作答:


A、D、B、D、C、A、C、B



而根据网上目前多个信源得到的标准答案是:A、C、D、A、B、B、C、B。


对比来看,豆包对5道,GPT-4o答对4道。


而对于更多的数学题的作答,其实复旦大学自然语言处理实验室在高考试卷曝光后第一时间做了更加全面的测试(所有大模型只能依靠LLM推理答题,不能通过RAG检索答案):



图源:复旦大学自然语言处理实验室


由此可见,大模型并不能完全hold住高考数学题目,并且不同人生成答案的结果也会出现偏差。


并且量子位在反复测试后发现,豆包对话答题时有一定随机性,多轮测试时的结果并不完全一样。上文只取样其中一轮的结果。


这也正如广大网友所反馈的那般——大模型文科强、理科弱


对此,技术圈也已经有一些讨论和解释:


大语言模型的基本原理是“文字接龙”,通过预测下一个token来生成内容,每次预测都有随机性和概率分布。

当大语言模型学习了海量知识数据,天然就适应考验记忆能力和语言运用的文科考试。

但理科考试主要考验推理和计算,比如一道数学题包含5步推理和5步计算,假设大语言模型每一步预测准确的概率都有90%,综合下来的准确率就只有35%。

另一方面,理科语料比较稀缺。大模型的训练数据中,文科语料要远远大于理科语料。这也是大模型更擅长文科的一个原因。

大模型都在努力提升智能水平,主要目标就是提高推理和计算能力。目前学界对此存在争议,有观点认为,“预测下一个token”本身就包含了推理,计算也是一种推理。

只要Scaling Law生效,大模型性能持续提升,推理和计算能力就能够提升;但也有反对者(如Yann LeCun)认为,大语言模型缺乏真正的规划推理能力,其涌现能力实际上是上下文学习的结果,主要体现在简单任务和事先知道答案的情境中。大语言模型未来是否能够真正实现AGI,目前还没有定论。

那是不是大模型就不适合用户来解数学题了呢?


也并不全是。


正如刚才所说,如果用豆包手机端的“拍题答疑”,也就是RAG链路的方式,那么结果的“打开方式”就截然不同了。


我们可以先用豆包APP对着题目拍照,让它先进行识别:



结果就是——全对!



至于更多类型题目大模型们的表现会如何,友友们可以拿着感兴趣的题目自行测试一番了。


如何评价?


从“高考大摸底”和智源FlagEval、上海AI Lab OpenCompass等评测上可以看到,豆包大模型已经稳稳进入国产第一梯队。


但随即而来的一个问题便是,过去一年多异常低调的豆包,是如何在短短一个月内就开始爆发的?


其实早在发布之际,豆包与其它大模型厂商截然不同的路径就已经有所体现,归结其背后的逻辑就是:


只有最大的使用量,才能打磨出最好的大模型。

据了解,豆包大模型在5月15日正式发布时,其每天平均处理的token数量高达1200亿,相当于1800亿的汉字;每天生成图片的数量为3000万张。


不仅如此,豆包大模型家族还会在包括抖音、今日头条等在内的50多个场景中进行实践和验证。


因此,我们可以把豆包在大模型性能上的路数,视为用“左手使用量,右手多场景”的方式反复打磨而来。


一言蔽之,大模型好不好,用一下就知道了。


并且基于豆包大模型打造的同名产品豆包APP,已成为国内最受欢迎的AIGC类应用。


这一点上,从量子位智库所汇总的智能助手“APP下载总量”和“APP月新增下载总量”便可一目了然——


豆包,均拿下第一。




不仅如此,在前不久国产大模型To B市场打响价格战之际,火山引擎也是相当“壕气”让大模型进入“厘时代”,1元=1250000tokens。


因此,现在要如何评价字节跳动的大模型和应用,或许就是:


  • 多:场景多,数据多

  • 好:各路评测都能hold住

  • 省:是冲在价格战头部的选手

但也正如我们刚才所述,现在的大模型还有很大的“进化”空间。


因此对于国产大模型在未来的发展,我们还需保持持续的关注;但毋庸置疑的一点是,字节的大模型和豆包,定然是最值得期待的其中一个。


文章来源于“量子位”,作者“关注前沿科技


关键词: 豆包 , AI , GPT-4o , 大模型
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
RAG

【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。

项目地址:https://github.com/microsoft/graphrag

【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。

项目地址:https://github.com/langgenius/dify


【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。

项目地址:https://github.com/infiniflow/ragflow/tree/main


【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目

项目地址:https://github.com/phidatahq/phidata


【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。

项目地址:https://github.com/TaskingAI/TaskingAI

2
免费使用GPT-4o

【免费】ffa.chat是一个完全免费的GPT-4o镜像站点,无需魔法付费,即可无限制使用GPT-4o等多个海外模型产品。

在线使用:https://ffa.chat/