AI资讯新闻榜单内容搜索-OTA

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: OTA
一次推理,实现六大3D点云分割任务!华科发布大一统算法UniSeg3D,性能新SOTA

一次推理,实现六大3D点云分割任务!华科发布大一统算法UniSeg3D,性能新SOTA

一次推理,实现六大3D点云分割任务!华科发布大一统算法UniSeg3D,性能新SOTA

华中科技大学研发的UniSeg3D算法,能一次性完成三维场景中的六项分割任务,提升了场景理解的全面性和效率。通过任务间的信息共享,优化了性能,为虚拟现实和机器人导航等领域带来新的解决方案。

来自主题: AI技术研报
8287 点击    2024-12-04 15:01
12%计算量就能媲美原模型,Adobe、罗切斯特大学等提出YOPO剪枝技术

12%计算量就能媲美原模型,Adobe、罗切斯特大学等提出YOPO剪枝技术

12%计算量就能媲美原模型,Adobe、罗切斯特大学等提出YOPO剪枝技术

尽管近期 Qwen2-VL 和 InternVL-2.0 的出现将开源多模态大模型的 SOTA 提升到了新高度,但巨大的计算开销限制了其在很多场景下的应用。

来自主题: AI技术研报
8754 点击    2024-11-28 14:16
50s完成7B模型量化,4bit达到新SOTA,大模型低比特量化有新招了 | NeurIPS 2024 Oral

50s完成7B模型量化,4bit达到新SOTA,大模型低比特量化有新招了 | NeurIPS 2024 Oral

50s完成7B模型量化,4bit达到新SOTA,大模型低比特量化有新招了 | NeurIPS 2024 Oral

消除激活值(outliers),大语言模型低比特量化有新招了—— 自动化所、清华、港城大团队最近有一篇论文入选了NeurIPS 2024(Oral Presentation),他们针对LLM权重激活量化提出了两种正交变换,有效降低了outliers现象,达到了4-bit的新SOTA。

来自主题: AI技术研报
3907 点击    2024-11-07 20:51
不靠更复杂的策略,仅凭和大模型训练对齐,零样本零经验单LLM调用,成为网络任务智能体新SOTA

不靠更复杂的策略,仅凭和大模型训练对齐,零样本零经验单LLM调用,成为网络任务智能体新SOTA

不靠更复杂的策略,仅凭和大模型训练对齐,零样本零经验单LLM调用,成为网络任务智能体新SOTA

网络智能体旨在让一切基于网络功能的任务自动发生。比如你告诉智能体你的预算,它可以帮你预订酒店。既拥有海量常识,又能做长期规划的大语言模型(LLM),自然成为了智能体常用的基础模块。

来自主题: AI技术研报
3855 点击    2024-11-06 15:34
视觉定位新SOTA!华人团队开源革新框架SegVG,边界框转为分割信号 | ECCV 2024

视觉定位新SOTA!华人团队开源革新框架SegVG,边界框转为分割信号 | ECCV 2024

视觉定位新SOTA!华人团队开源革新框架SegVG,边界框转为分割信号 | ECCV 2024

SegVG是一种新的视觉定位方法,通过将边界框注释转化为像素级分割信号来增强模型的监督信号,同时利用三重对齐模块解决特征域差异问题,提升了定位准确性。实验结果显示,SegVG在多个标准数据集上超越了现有的最佳模型,证明了其在视觉定位任务中的有效性和实用性。

来自主题: AI技术研报
3186 点击    2024-11-05 14:56
一键安装最新生产环境GraphRAG UI,kotaemon日增1.3KStar霸榜Github

一键安装最新生产环境GraphRAG UI,kotaemon日增1.3KStar霸榜Github

一键安装最新生产环境GraphRAG UI,kotaemon日增1.3KStar霸榜Github

这两天Github上有一个项目火了。可用于生产环境GraphRAG的开源UI项目kotaemon,更新不到两天后已经有6.6KStar,昨日新增1.3KStar已位居Github Trending榜首。周末抽空部署了一下,还挺简单,推荐给大家。

来自主题: AI技术研报
4877 点击    2024-10-30 14:50
超越YOLOv10/11、RT-DETRv2/3!中科大D-FINE重新定义边界框回归任务

超越YOLOv10/11、RT-DETRv2/3!中科大D-FINE重新定义边界框回归任务

超越YOLOv10/11、RT-DETRv2/3!中科大D-FINE重新定义边界框回归任务

在当前内卷严重的实时目标检测 (Real-time Object Detection) 领域,性能与效率始终是难以平衡的核心问题。绝大多数现有的 SOTA 方法仅依赖于更先进的模块替换或训练策略,导致性能逐渐趋于饱和。

来自主题: AI技术研报
9803 点击    2024-10-29 13:30