AI资讯新闻榜单内容搜索-CaT

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: CaT
上交大发布首个OpenAI o1复现项目进展报告,满满的经验洞察

上交大发布首个OpenAI o1复现项目进展报告,满满的经验洞察

上交大发布首个OpenAI o1复现项目进展报告,满满的经验洞察

在人工智能领域掀起巨浪的 OpenAI o1 模型发布三周后,一支由高校年轻研究者组成的团队今天发布了题为 "o1 Replication Journey: A Strategic Progress Report (o1 探索之旅:战略进展报告)" 的研究进展报告。

来自主题: AI技术研报
6089 点击    2024-10-09 12:55
告别CUDA无需Triton!Mirage零门槛生成PyTorch算子,人均GPU编程大师?

告别CUDA无需Triton!Mirage零门槛生成PyTorch算子,人均GPU编程大师?

告别CUDA无需Triton!Mirage零门槛生成PyTorch算子,人均GPU编程大师?

近日,来自 CMU 的 Catalyst Group 团队发布了一款 PyTorch 算子编译器 Mirage,用户无需编写任何 CUDA 和 Triton 代码就可以自动生成 GPU 内核,并取得更佳的性能。

来自主题: AI资讯
5410 点击    2024-10-06 16:08
Figma老股估值910亿,一批员工财务自由

Figma老股估值910亿,一批员工财务自由

Figma老股估值910亿,一批员工财务自由

据彭博社报道,包括Coatue,Alkeon Capital Management和General Catalyst Partners在内的投资者已经投资了Figma,估值被认定为125亿美元(折合人民币910亿元),该交易被广泛认为是为IPO做准备。

来自主题: AI资讯
5417 点击    2024-07-30 11:50
AI机器人伴侣成美国老年人新宠!美国每年花70万刀,失去爱人的84岁老人重新笑了

AI机器人伴侣成美国老年人新宠!美国每年花70万刀,失去爱人的84岁老人重新笑了

AI机器人伴侣成美国老年人新宠!美国每年花70万刀,失去爱人的84岁老人重新笑了

84岁的美国老人Dorothy Elicati在失去结婚65年的丈夫后,每天醒来唯一做的事就是哭泣,直到一个AI机器人的出现。现在,美国会每年花费70万美元,为某些州的老年人免费发放这款机器人。

来自主题: AI资讯
10094 点击    2024-07-14 13:58
自动驾驶理论新突破登Nature子刊!清华、密歇根联合提出三条技术路线,剑指「稀疏度灾难」

自动驾驶理论新突破登Nature子刊!清华、密歇根联合提出三条技术路线,剑指「稀疏度灾难」

自动驾驶理论新突破登Nature子刊!清华、密歇根联合提出三条技术路线,剑指「稀疏度灾难」

近日,清华大学与密歇根大学联合提出的自动驾驶汽车安全性「稀疏度灾难」问题,发表在了顶刊《Nature Communications》上。研究指出,安全攸关事件的稀疏性导致深度学习模型训练难度大增,提出了密集学习、模型泛化改进和车路协同等技术路线以应对挑战。

来自主题: AI资讯
3921 点击    2024-06-26 17:12
法国独角兽Mistral AI即将完成6亿美元融资,半年内估值有望翻三倍

法国独角兽Mistral AI即将完成6亿美元融资,半年内估值有望翻三倍

法国独角兽Mistral AI即将完成6亿美元融资,半年内估值有望翻三倍

腾讯科技讯 5月9日消息,据国外媒体报道,援引知情人士周四透露,法国人工智能初创公司Mistral AI将以60亿美元的估值,从包括General Catalyst和Lightspeed Venture Partners在内的投资者手中筹集约6亿美元资金。Mistral AI在本轮融资中的最新估值几乎是半年前估值的近三倍。

来自主题: AI资讯
8542 点击    2024-05-11 10:58
平均准确率达96.4%,中山大学&重庆大学开发基于Transformer的单细胞注释方法

平均准确率达96.4%,中山大学&重庆大学开发基于Transformer的单细胞注释方法

平均准确率达96.4%,中山大学&重庆大学开发基于Transformer的单细胞注释方法

使用测序 (scATAC-seq) 技术对转座酶可及的染色质进行单细胞测定,可在单细胞分辨率下深入了解基因调控和表观遗传异质性,但由于数据的高维性和极度稀疏性,scATAC-seq 的细胞注释仍然具有挑战性。现有的细胞注释方法大多集中在细胞峰矩阵上,而没有充分利用底层的基因组序列。

来自主题: AI技术研报
10918 点击    2024-05-04 20:01
LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍

LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍

LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍

大型语言模型(LLM)往往会追求更长的「上下文窗口」,但由于微调成本高、长文本稀缺以及新token位置引入的灾难值(catastrophic values)等问题,目前模型的上下文窗口大多不超过128k个token

来自主题: AI技术研报
8826 点击    2024-04-29 20:31