AI资讯新闻榜单内容搜索-7

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 7
阅读7千万文章硅谷爆火:AI奇点已至,抛弃人类自我进化!

阅读7千万文章硅谷爆火:AI奇点已至,抛弃人类自我进化!

阅读7千万文章硅谷爆火:AI奇点已至,抛弃人类自我进化!

就在本月,AI 经历了质变式飞跃,已经能独立完成过去需要人类专家数小时才能搞定的复杂工作。AI 开始参与构建下一代 AI,递归自我提升的循环已经启动,智能爆炸可能在一两年内到来。

来自主题: AI资讯
9718 点击    2026-02-13 11:05
Z Tech|ICLR 2026字节发布:从短句到篇章,DiscoX为长文翻译提供评测新范式

Z Tech|ICLR 2026字节发布:从短句到篇章,DiscoX为长文翻译提供评测新范式

Z Tech|ICLR 2026字节发布:从短句到篇章,DiscoX为长文翻译提供评测新范式

DiscoX构建了一套200题的长文翻译数据集,以平均长度1,712 tokens的长篇章做评测单元,要求整个长文文本作为一个整体来翻译,除翻译准确度外,重点考察跨段落的逻辑与风格一致性、上下文中的术语精确性、以及专业写作规范,贴合用户真实的使用场景。

来自主题: AI技术研报
9844 点击    2026-02-13 11:03
清华传奇姚顺宇立功!全新Gemini一夜血洗编程,全球仅7人能赢它

清华传奇姚顺宇立功!全新Gemini一夜血洗编程,全球仅7人能赢它

清华传奇姚顺宇立功!全新Gemini一夜血洗编程,全球仅7人能赢它

今天,Gemini 3 Deep Think重磅升级,几乎刷爆全领域的SOTA,标志着AI推理能力进入了全新维度。这一次,在科学研究和硬核工程领域,Deep Think堪称一个「最强大脑」。

来自主题: AI资讯
9720 点击    2026-02-13 10:32
Anthropic正式请家教!37岁女哲学家像养孩子一样调教Claude

Anthropic正式请家教!37岁女哲学家像养孩子一样调教Claude

Anthropic正式请家教!37岁女哲学家像养孩子一样调教Claude

一位牛津哲学博士,正在Anthropic教全球顶尖AI模型如何「做人」。这场跨物种的「育儿实验」,比科幻更炸裂。

来自主题: AI资讯
6636 点击    2026-02-12 15:35
这个AI炒股年化收益27.75%!用自进化Agent挖掘穿越牛熊的量化因子

这个AI炒股年化收益27.75%!用自进化Agent挖掘穿越牛熊的量化因子

这个AI炒股年化收益27.75%!用自进化Agent挖掘穿越牛熊的量化因子

在量化金融的底层,Alpha因子本质上是一段可执行的代码逻辑,它们试图将嘈杂的市场数据映射为精准的交易信号。

来自主题: AI技术研报
9623 点击    2026-02-12 10:34
硅谷豪赌算力烧到停电,中国团队反向出击!这一刀,直接砍碎Scaling Law

硅谷豪赌算力烧到停电,中国团队反向出击!这一刀,直接砍碎Scaling Law

硅谷豪赌算力烧到停电,中国团队反向出击!这一刀,直接砍碎Scaling Law

思考token在精不在多。Yuan 3.0 Flash用RAPO+RIRM双杀过度思考,推理token砍75%,网友们惊呼:这就是下一代AI模型的发展方向!

来自主题: AI技术研报
9950 点击    2026-02-11 14:43
比肩OpenAI Simple Codex,中国团队Feeling AI闯入Terminal-Bench全球第二!

比肩OpenAI Simple Codex,中国团队Feeling AI闯入Terminal-Bench全球第二!

比肩OpenAI Simple Codex,中国团队Feeling AI闯入Terminal-Bench全球第二!

就在这个被 Anthropic 和 OpenAI 视为衡量 Agent 真实工程能力全球权威基准 Terminal-Bench 2.0 榜单上,中国团队 Feeling AI 凭借 CodeBrain-1,搭载最新 GPT-5.3-Codex 底座模型,一举冲到 72.9%(70.3%) 并跻身全球排行榜第二,成为榜单前 10 中唯一的中国团队。

来自主题: AI资讯
10074 点击    2026-02-10 18:51
GLM-5架构曝光,智谱两日涨60%:采用DeepSeek同款稀疏注意力

GLM-5架构曝光,智谱两日涨60%:采用DeepSeek同款稀疏注意力

GLM-5架构曝光,智谱两日涨60%:采用DeepSeek同款稀疏注意力

不管Pony Alpha是不是智谱的,下一代旗舰大模型GLM-5都要来了。GLM-5采用了DeepSeek-V3/V3.2架构,包括稀疏注意力机制(DSA)和多Token预测(MTP),总参数量745B,是上一代GLM-4.7的2倍。

来自主题: AI资讯
8627 点击    2026-02-10 16:27