AI资讯新闻榜单内容搜索-人工智能

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 人工智能
让Agent记住一切是愚蠢的:SimpleMem用「结构化语义压缩」登顶记忆SOTA

让Agent记住一切是愚蠢的:SimpleMem用「结构化语义压缩」登顶记忆SOTA

让Agent记住一切是愚蠢的:SimpleMem用「结构化语义压缩」登顶记忆SOTA

如果人类的大脑像现在的LLM Agent一样工作,记住每一句今天明天的废话,我们在五岁时就会因为内存溢出而宕机。真正的智能,核心不在于“存储”,而在于高效的“遗忘”与“重组”。

来自主题: AI技术研报
8786 点击    2026-01-15 09:22
视觉模型既懂语义,又能还原细节,南洋理工&商汤提出棱镜假说

视觉模型既懂语义,又能还原细节,南洋理工&商汤提出棱镜假说

视觉模型既懂语义,又能还原细节,南洋理工&商汤提出棱镜假说

作者来自 Nanyang Technological University(MMLab) 与 SenseTime Research,提出 Prism Hypothesis(棱镜假说) 与 Unified Autoencoding(UAE),尝试用 “频率谱” 的统一视角,把语义编码器与像素编码器的表示冲突真正 “合并解决”。

来自主题: AI技术研报
10299 点击    2026-01-15 09:20
官宣,Milvus开源语义高亮模型:告别饱和检索,帮RAG、agent剪枝80%上下文

官宣,Milvus开源语义高亮模型:告别饱和检索,帮RAG、agent剪枝80%上下文

官宣,Milvus开源语义高亮模型:告别饱和检索,帮RAG、agent剪枝80%上下文

RAG与agent用到深水区,一定会遇到这个问题: 明明架构很完美,私有数据也做了接入,但项目上线三天,不但token账单爆了,模型输出结果也似乎总差点意思。

来自主题: AI技术研报
9697 点击    2026-01-15 09:19
估值13亿美元,语音AI公司Deepgram宣布完成1.3亿美元C轮融资

估值13亿美元,语音AI公司Deepgram宣布完成1.3亿美元C轮融资

估值13亿美元,语音AI公司Deepgram宣布完成1.3亿美元C轮融资

美国当地时间1月13日,语音AI公司Deepgram宣布完成1.3亿美元C轮融资。此轮融资后,公司总融资额达到2.15亿美元,估值13亿美元,成为了这一赛道的新晋独角兽。

来自主题: AI资讯
10056 点击    2026-01-14 23:47
5行代码,逼疯整个硅谷!澳洲放羊大叔,捅开AI编程奇点

5行代码,逼疯整个硅谷!澳洲放羊大叔,捅开AI编程奇点

5行代码,逼疯整个硅谷!澳洲放羊大叔,捅开AI编程奇点

最近,一个澳大利亚的养羊大叔用5行代码捅破AI编程天花板的故事,彻底火出圈了。2025年底,在铲羊粪的间隙,Geoffrey Huntley写出了下面这个仅含5行代码的Bash脚本while :; do cat PROMPT.md | claude-code ; done

来自主题: AI资讯
8574 点击    2026-01-14 17:29
这一次,谷歌Veo 3.1教Sora做视频!角色0变形,4K竖屏直接满分

这一次,谷歌Veo 3.1教Sora做视频!角色0变形,4K竖屏直接满分

这一次,谷歌Veo 3.1教Sora做视频!角色0变形,4K竖屏直接满分

今天,谷歌Veo 3.1终于迎来重磅升级,表现力直接爆表! 这一次,谷歌特别优化了移动端体验。只需上传一些「素材图片」(ingredient images),就能轻松创作出更有趣、更有创意、画质极佳的视频。

来自主题: AI技术研报
8012 点击    2026-01-14 17:07
AAAI 2026|AP2O-Coder 让大模型拥有「错题本」,像人类一样按题型高效刷题

AAAI 2026|AP2O-Coder 让大模型拥有「错题本」,像人类一样按题型高效刷题

AAAI 2026|AP2O-Coder 让大模型拥有「错题本」,像人类一样按题型高效刷题

在 AI 辅助 Coding 技术快速发展的背景下,大语言模型(LLMs)虽显著提升了软件开发效率,但开源的 LLMs 生成的代码依旧存在运行时错误,增加了开发者调试成本。

来自主题: AI技术研报
9478 点击    2026-01-14 15:28
Sebastian Raschka 2026预测:Transformer统治依旧,但扩散模型正悄然崛起

Sebastian Raschka 2026预测:Transformer统治依旧,但扩散模型正悄然崛起

Sebastian Raschka 2026预测:Transformer统治依旧,但扩散模型正悄然崛起

站在 2026 年的开端回望,LLM 的架构之争似乎进入了一个新的微妙阶段。过去几年,Transformer 架构以绝对的统治力横扫了人工智能领域,但随着算力成本的博弈和对推理效率的极致追求,挑战者们从未停止过脚步。

来自主题: AI技术研报
9598 点击    2026-01-14 15:25