AI资讯新闻榜单内容搜索-LeCun

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LeCun
用AI读懂施工图纸,Meta前AI科学家创业,融资10M,杨立昆押注 | 附8个DEMO

用AI读懂施工图纸,Meta前AI科学家创业,融资10M,杨立昆押注 | 附8个DEMO

用AI读懂施工图纸,Meta前AI科学家创业,融资10M,杨立昆押注 | 附8个DEMO

1天前,2026年4月,Primepoint完成了$10M种子轮融资。对一家成立仅两年、团队不足10人的公司而言,这个数字不算小。更值得关注的是投资人结构:深度学习先驱Yann LeCun亲自下注,多家专注建筑科技的头部VC联合跟投。

来自主题: AI资讯
8412 点击    2026-04-20 15:14
直面LeCun愿景,智在无界发布最强具身世界模型,20万小时人类视频屠榜6大榜单

直面LeCun愿景,智在无界发布最强具身世界模型,20万小时人类视频屠榜6大榜单

直面LeCun愿景,智在无界发布最强具身世界模型,20万小时人类视频屠榜6大榜单

4 月 14 日,智在无界发布第三代旗舰模型 Being-H0.7,该模型将数据规模扩展至 20 万小时人类视频,并提出一种全新的范式 —— 基于潜空间推理的世界模型。在 6 项国际性权威评测中,H0.7 综合排名全球第一(其中 4 项登顶),同时也是首个覆盖跨本体、跨场景、连续动态、流体、柔性物体、物理规律与上下文推理等七大关键维度的通用世界模型。

来自主题: AI资讯
8208 点击    2026-04-14 10:22
LeCun的世界模型单GPU就能跑了

LeCun的世界模型单GPU就能跑了

LeCun的世界模型单GPU就能跑了

LeCun世界模型最新进展,开源了一套极简训练方案,单GPU就能跑。

来自主题: AI技术研报
6535 点击    2026-03-24 17:25
Meta又一AI大将跟LeCun跑了

Meta又一AI大将跟LeCun跑了

Meta又一AI大将跟LeCun跑了

事情果然和大家预想的一样!

来自主题: AI资讯
5480 点击    2026-03-23 14:09
OpenClaw不会蛋炒饭!Ropedia放出人类经验,机器人「教科书」来了

OpenClaw不会蛋炒饭!Ropedia放出人类经验,机器人「教科书」来了

OpenClaw不会蛋炒饭!Ropedia放出人类经验,机器人「教科书」来了

当LeCun和李飞飞各自拿下10亿美元押注世界模型时,一个更底层的问题浮出水面:谁来为Physical AI提供真正能用的数据?Ropedia给出的答案,不是更多视频,而是一部结构化的、来自真实世界的「经验百科全书」。

来自主题: AI资讯
9491 点击    2026-03-17 15:01
刚刚,谷歌AI破解外星人难题!打破十年纪录,自己写算法震撼诺奖得主

刚刚,谷歌AI破解外星人难题!打破十年纪录,自己写算法震撼诺奖得主

刚刚,谷歌AI破解外星人难题!打破十年纪录,自己写算法震撼诺奖得主

谷歌DeepMind又放大招了:AlphaEvolve自主写算法,一口气改写5个经典拉姆齐数下界,打破了尘封十年的数学纪录!诺奖得主Hassabis和图灵奖得主LeCun都纷纷点赞——AI,正在彻底改变数学突破的方式!

来自主题: AI资讯
8227 点击    2026-03-14 20:41
独家|杨立昆再联手谢赛宁,英伟达参投,世界模型研究所AMI 已完成 10.3 亿美元融资

独家|杨立昆再联手谢赛宁,英伟达参投,世界模型研究所AMI 已完成 10.3 亿美元融资

独家|杨立昆再联手谢赛宁,英伟达参投,世界模型研究所AMI 已完成 10.3 亿美元融资

3 月 10 日,APPSO 中文独家获悉,世界模型研究所/创业公司 AMI 已完成 10.3 亿美元融资,投前估值 35 亿美元。该公司由图灵奖得主、前 Meta 首席 AI 科学家杨立昆 (Yann LeCun) 创办。

来自主题: AI资讯
8505 点击    2026-03-10 16:20
LeCun团队新论文:模仿人类智能搞AI,照猫画虎死胡同

LeCun团队新论文:模仿人类智能搞AI,照猫画虎死胡同

LeCun团队新论文:模仿人类智能搞AI,照猫画虎死胡同

AI圈追逐多年的通用人工智能(AGI),可能从一开始就走偏了。

来自主题: AI技术研报
7909 点击    2026-03-10 09:30
多模态预训练,才是大模型的下一条路?Yann LeCun、谢赛宁参与

多模态预训练,才是大模型的下一条路?Yann LeCun、谢赛宁参与

多模态预训练,才是大模型的下一条路?Yann LeCun、谢赛宁参与

基础模型时代,大模型能力的爆发,很大程度上源于在海量文本上的预训练。然而问题在于,文本本质上只是人类对现实世界的一种抽象表达,是对真实世界信息的有损压缩。

来自主题: AI技术研报
9552 点击    2026-03-09 09:53