AI资讯新闻榜单内容搜索-伯克利

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 伯克利
英伟达华人硬核AI神器,「描述一切」秒变细节狂魔!仅3B逆袭GPT-4o

英伟达华人硬核AI神器,「描述一切」秒变细节狂魔!仅3B逆袭GPT-4o

英伟达华人硬核AI神器,「描述一切」秒变细节狂魔!仅3B逆袭GPT-4o

视觉AI终极突破来了!英伟达等机构推出超强多模态模型DAM,仅3B参数,就能精准描述图像和视频中的任何细节。刚刚,英伟达联手UC伯克利、UCSF团队祭出首个神级多模态模型——Describe Anything Model(DAM),仅3B参数。

来自主题: AI资讯
9181 点击    2025-04-27 10:47
速递|不站队的AI裁判要赚钱了?Chatbot Arena转型公司化运营且计划融资

速递|不站队的AI裁判要赚钱了?Chatbot Arena转型公司化运营且计划融资

速递|不站队的AI裁判要赚钱了?Chatbot Arena转型公司化运营且计划融资

作为学术研究项目,原加州大学伯克利分校的Chatbot Arena,其网站已成为访客试用新人工智能模型的热门平台,现正转型为独立公司。

来自主题: AI资讯
6288 点击    2025-04-21 16:37
推理模型其实无需「思考」?伯克利发现有时跳过思考过程会更快、更准确

推理模型其实无需「思考」?伯克利发现有时跳过思考过程会更快、更准确

推理模型其实无需「思考」?伯克利发现有时跳过思考过程会更快、更准确

当 DeepSeek-R1、OpenAI o1 这样的大型推理模型还在通过增加推理时的计算量提升性能时,加州大学伯克利分校与艾伦人工智能研究所突然扔出了一颗深水炸弹:别再卷 token 了,无需显式思维链,推理模型也能实现高效且准确的推理。

来自主题: AI技术研报
6998 点击    2025-04-19 14:39
4K分辨率视觉预训练首次实现!伯克利&英伟达多模态新SOTA,更准且3倍加速处理

4K分辨率视觉预训练首次实现!伯克利&英伟达多模态新SOTA,更准且3倍加速处理

4K分辨率视觉预训练首次实现!伯克利&英伟达多模态新SOTA,更准且3倍加速处理

当前,所有主流的视觉基础模型(如 SigLIP、DINOv2 等)都仍然在低分辨率(如 384 * 384 分辨率)下进行预训练。对比人类视觉系统可以轻松达到 10K 等效分辨率,这种低分辨率预训练极大地限制了视觉模型对于高清细节的理解能力。

来自主题: AI技术研报
5965 点击    2025-04-17 13:54
UC伯克利华人开源14B「o3-mini」,代码版R1突袭OpenAI王座!

UC伯克利华人开源14B「o3-mini」,代码版R1突袭OpenAI王座!

UC伯克利华人开源14B「o3-mini」,代码版R1突袭OpenAI王座!

OpenAI o1/o3-mini级别的代码推理模型竟被抢先开源!UC伯克利和Together AI联合推出的DeepCoder-14B-Preview,仅14B参数就能媲美o3-mini,开源代码、数据集一应俱全,免费使用。

来自主题: AI技术研报
7139 点击    2025-04-10 11:52
用两个LLM执行PLAN-AND-ACT,让Agent在长任务中提高规划能力54% | UC伯克利最新

用两个LLM执行PLAN-AND-ACT,让Agent在长任务中提高规划能力54% | UC伯克利最新

用两个LLM执行PLAN-AND-ACT,让Agent在长任务中提高规划能力54% | UC伯克利最新

当你要求AI"帮我订一张去纽约的机票"时,它需要理解目标、分解步骤、适应变化,这个过程远比看起来复杂。UC伯克利的研究者们带来了振奋人心的新发现:通过将任务规划和执行分离的PLAN-AND-ACT框架,他们成功将智能体在长期任务中的规划能力提升了54%,创造了新的技术突破。

来自主题: AI技术研报
5207 点击    2025-03-21 14:37
新注意力让大模型上下文内存占用砍半!精度不减还能加速2倍

新注意力让大模型上下文内存占用砍半!精度不减还能加速2倍

新注意力让大模型上下文内存占用砍半!精度不减还能加速2倍

大模型同样的上下文窗口,只需一半内存就能实现,而且精度无损? 前苹果ASIC架构师Nils Graef,和一名UC伯克利在读本科生一起提出了新的注意力机制Slim Attention。

来自主题: AI资讯
5880 点击    2025-03-17 19:52