AI资讯新闻榜单内容搜索-模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型
多模态CelHive在AI agent时代打造一个超级智能体平台

多模态CelHive在AI agent时代打造一个超级智能体平台

多模态CelHive在AI agent时代打造一个超级智能体平台

大模型与多模态之间的关系,可以理解为大模型就像是人脑中的‘前额叶’,主要负责高级认知功能,但只有前额叶的大脑是无法处理复杂任务的,这就需要多个不同模型之间互相协调,从单纯的“前额叶”走向“完整的大脑”,从而处理更加复杂的现实任务。

来自主题: AI资讯
7065 点击    2025-08-20 17:31
深度分析|当AI时代软件成本趋于零时,商业模式会有哪些变化?

深度分析|当AI时代软件成本趋于零时,商业模式会有哪些变化?

深度分析|当AI时代软件成本趋于零时,商业模式会有哪些变化?

当我看到 Cursor、Claude Code、Lovable 这些 AI 编程工具的出现,以及它们正在以惊人的速度降低软件开发成本时,我意识到我们正站在一个历史转折点上。这不仅仅是开发效率的提升,而是整个软件行业商业逻辑的根本性重构。

来自主题: AI资讯
5137 点击    2025-08-20 16:38
dLLM的「Free Lunch」!浙大&蚂蚁利用中间结果显著提升扩散语言模型

dLLM的「Free Lunch」!浙大&蚂蚁利用中间结果显著提升扩散语言模型

dLLM的「Free Lunch」!浙大&蚂蚁利用中间结果显著提升扩散语言模型

近年来,扩散大语言模型(Diffusion Large Language Models, dLLMs)正迅速崭露头角,成为文本生成领域的一股新势力。与传统自回归(Autoregressive, AR)模型从左到右逐字生成不同,dLLM 依托迭代去噪的生成机制,不仅能够一次性生成多个 token,还能在对话、推理、创作等任务中展现出独特的优势。

来自主题: AI技术研报
6398 点击    2025-08-20 16:26
DiT在数学和形式上是错的?谢赛宁回应:不要在脑子里做科学

DiT在数学和形式上是错的?谢赛宁回应:不要在脑子里做科学

DiT在数学和形式上是错的?谢赛宁回应:不要在脑子里做科学

「兄弟们,DiT 是错的!」 最近一篇帖子在 X 上引发了很大的讨论,有博主表示 DiT 存在架构上的缺陷,并附上一张论文截图。

来自主题: AI技术研报
5973 点击    2025-08-20 16:17
国产AI路由系统开源逆袭!仅用19%成本达到Gemini-2.5-Pro同等性能

国产AI路由系统开源逆袭!仅用19%成本达到Gemini-2.5-Pro同等性能

国产AI路由系统开源逆袭!仅用19%成本达到Gemini-2.5-Pro同等性能

虽然大模型的优越表现令人瞩目,但动辄高昂的使用成本也让不少用户望而却步。 为平衡性能与成本,上海人工智能实验室科研团队基于前期技术积累,开源推出了Avengers-Pro多模型调度路由方案。

来自主题: AI技术研报
5335 点击    2025-08-20 16:07
DeepSeek V3.1 Base突袭上线!击败Claude 4编程爆表,全网在蹲R2和V4

DeepSeek V3.1 Base突袭上线!击败Claude 4编程爆表,全网在蹲R2和V4

DeepSeek V3.1 Base突袭上线!击败Claude 4编程爆表,全网在蹲R2和V4

DeepSeek V3.1新版正式上线,上下文128k,编程实力碾压Claude 4 Opus,成本低至1美元。在昨晚,DeepSeek官方悄然上线了全新的V3.1版本,上下文长度拓展到128k。本次开源的V3.1模型拥有685B参数,支持多种精度格式,从BF16到FP8。

来自主题: AI资讯
6177 点击    2025-08-20 12:56
海量文本秒转结构化,试下谷歌的LangExtract,Github上12.3k star

海量文本秒转结构化,试下谷歌的LangExtract,Github上12.3k star

海量文本秒转结构化,试下谷歌的LangExtract,Github上12.3k star

真正的业务宝藏往往就埋藏在那些看似杂乱无章的文本数据之中,即非结构化文本,但问题是,如何高效、可靠地把这些宝藏精准地挖出来,一直是个令人头疼的难题,今天我们就来聊聊最近GitHub12.3k star爆火的Google 开源项目LangExtract,它为这个问题提供了一个相当漂亮的答案。

来自主题: AI资讯
5843 点击    2025-08-20 11:55
微软| 搞定长时程、跨应用的Agent,竟然只靠<20%的摘要记忆,反超全文投喂

微软| 搞定长时程、跨应用的Agent,竟然只靠<20%的摘要记忆,反超全文投喂

微软| 搞定长时程、跨应用的Agent,竟然只靠<20%的摘要记忆,反超全文投喂

作为大家的测评博主,我最近发现一个巨有意思的现象: 现在市面上大部分评估 Agent 的基准测试,倾向于考核“单项技能”,而非“综合任务”。比如,你让 AI 点份外卖,它能完成;但如果要求它策划一场涵盖预算、选址、菜单、宾客邀请与流程安排的晚宴,它很可能就原地就 G 了。

来自主题: AI资讯
6834 点击    2025-08-20 11:49
OpenAI高管自爆:Scaling不死,GPT-5「双轴训练」撕开智能天花板

OpenAI高管自爆:Scaling不死,GPT-5「双轴训练」撕开智能天花板

OpenAI高管自爆:Scaling不死,GPT-5「双轴训练」撕开智能天花板

奥特曼称GPT-5「比人聪明」,但OpenAI首席运营官Lightcap澄清:这不是AGI。这只是能力过剩的冰山一角——我们仍有十年产品可建,模型越智能,融合越要精妙。GPT-5标志着从纯智商到反思能力的全面跃进。

来自主题: AI资讯
6405 点击    2025-08-20 11:22
思维链可无限延伸了,MIT等打破大模型上下文天花板

思维链可无限延伸了,MIT等打破大模型上下文天花板

思维链可无限延伸了,MIT等打破大模型上下文天花板

大模型的记忆墙,被MIT撬开了一道口子。 MIT等机构最新提出了一种新架构,让推理大模型的思考长度突破物理限制,理论上可以无限延伸。 这个新架构名叫Thread Inference Model,简称TIM。

来自主题: AI资讯
5984 点击    2025-08-20 11:10