AI资讯新闻榜单内容搜索-RIP

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: RIP
NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉

NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉

NeurIPS 2024 | 解锁大模型知识记忆编辑的新路径,浙大用「WISE」对抗幻觉

现有的大模型主要依赖固定的参数和数据来存储知识,一旦训练完成,修改和更新特定知识的代价极大,常常因知识谬误导致模型输出不准确或引发「幻觉」现象。因此,如何对大模型的知识记忆进行精确控制和编辑,成为当前研究的前沿热点。

来自主题: AI技术研报
3691 点击    2024-10-24 09:48
NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源

NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源

NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源

多年来,浙江大学周晟老师团队与阿里安全交互内容安全团队持续开展产学研合作。近日,双⽅针对标签噪声下图神经⽹络的联合研究成果《NoisyGL:标签噪声下图神经网络的综合基准》被 NeurIPS Datasets and Benchmarks Track 2024 收录。本次 NeurIPS D&B Track 共收到 1820 篇投稿,录⽤率为 25.3%。

来自主题: AI技术研报
3968 点击    2024-10-21 14:42
NeurIPS 2024 Oral | 小参数,大作为!揭秘非对称 LoRA 架构的高效性能

NeurIPS 2024 Oral | 小参数,大作为!揭秘非对称 LoRA 架构的高效性能

NeurIPS 2024 Oral | 小参数,大作为!揭秘非对称 LoRA 架构的高效性能

大型语言模型(LLMs)虽然在适应新任务方面取得了长足进步,但它们仍面临着巨大的计算资源消耗,尤其在复杂领域的表现往往不尽如人意。

来自主题: AI技术研报
4214 点击    2024-10-20 16:58
OCR-Omni来了,字节&华师统一多模态文字理解与生成 | NeurIPS2024

OCR-Omni来了,字节&华师统一多模态文字理解与生成 | NeurIPS2024

OCR-Omni来了,字节&华师统一多模态文字理解与生成 | NeurIPS2024

多模态生成新突破,字节&华师团队打造TextHarmony,在单一模型架构中实现模态生成的统一,并入选NeurIPS 2024。

来自主题: AI技术研报
3487 点击    2024-10-20 11:48
率先突破大规模多类数据损坏问题!中科大离线强化学习新方式入选NeurIPS 2024

率先突破大规模多类数据损坏问题!中科大离线强化学习新方式入选NeurIPS 2024

率先突破大规模多类数据损坏问题!中科大离线强化学习新方式入选NeurIPS 2024

机器人控制和自动驾驶的离线数据损坏问题有解了! 中科大王杰教授团队 (MIRA Lab) 提出了一种变分贝叶斯推断方法,有效地提升了智能决策模型的鲁棒性。

来自主题: AI技术研报
3365 点击    2024-10-20 11:43
NeurIPS 2024 | FaceChain团队新作,开源拓扑对齐人脸表征模型TopoFR

NeurIPS 2024 | FaceChain团队新作,开源拓扑对齐人脸表征模型TopoFR

NeurIPS 2024 | FaceChain团队新作,开源拓扑对齐人脸表征模型TopoFR

在数字人领域,形象的生成需要依赖于基础的表征学习。FaceChain 团队除了在数字人生成领域持续贡献之外,在基础的人脸表征学习领域也一直在进行深入研究。

来自主题: AI技术研报
5119 点击    2024-10-18 11:09
机器人世界模型,TeleAI用少量数据完成训练 | NeurIPS 2024

机器人世界模型,TeleAI用少量数据完成训练 | NeurIPS 2024

机器人世界模型,TeleAI用少量数据完成训练 | NeurIPS 2024

TeleAI 李学龙团队提出具身世界模型,挖掘大量人类操作视频和少量机器人数据的共同决策模式。

来自主题: AI技术研报
3352 点击    2024-10-16 14:31
NeurIPS 2024 | Transformer长度外推,全新位置编码DAPE大幅提升模型性能

NeurIPS 2024 | Transformer长度外推,全新位置编码DAPE大幅提升模型性能

NeurIPS 2024 | Transformer长度外推,全新位置编码DAPE大幅提升模型性能

在当今的人工智能领域,Transformer 模型已成为解决诸多自然语言处理任务的核心。然而,Transformer 模型在处理长文本时常常遇到性能瓶颈。传统的位置编码方法,如绝对位置编码(APE)和相对位置编码(RPE),虽然在许多任务中表现良好,但其固定性限制了其在处理超长文本时的适应性和灵活性。

来自主题: AI技术研报
6361 点击    2024-10-12 14:29
NeurIPS 2024 | 大模型的词表大小,同样适用于Scaling Law

NeurIPS 2024 | 大模型的词表大小,同样适用于Scaling Law

NeurIPS 2024 | 大模型的词表大小,同样适用于Scaling Law

本文是一篇发表在 NeurIPS 2024 上的论文,单位是香港大学、Sea AI Lab、Contextual AI 和俄亥俄州立大学。论文主要探讨了大型语言模型(LLMs)的词表大小对模型性能的影响。

来自主题: AI技术研报
6088 点击    2024-10-11 13:55