
入选NeurIPS 24,浙大团队提出全新去噪蛋白质语言模型DePLM,突变效应预测优于SOTA模型
入选NeurIPS 24,浙大团队提出全新去噪蛋白质语言模型DePLM,突变效应预测优于SOTA模型具有强大泛化能力
具有强大泛化能力
在当今的人工智能领域,Transformer 模型已成为解决诸多自然语言处理任务的核心。然而,Transformer 模型在处理长文本时常常遇到性能瓶颈。传统的位置编码方法,如绝对位置编码(APE)和相对位置编码(RPE),虽然在许多任务中表现良好,但其固定性限制了其在处理超长文本时的适应性和灵活性。
本文是一篇发表在 NeurIPS 2024 上的论文,单位是香港大学、Sea AI Lab、Contextual AI 和俄亥俄州立大学。论文主要探讨了大型语言模型(LLMs)的词表大小对模型性能的影响。
该研究主要探讨了大语言模型的全局剪枝方法,旨在提高预训练语言模型的效率。该成果的发表为大模型的剪枝与优化研究提供了新的视角,并在相关领域具有重要的应用潜力。
NeurIPS 2024评审结果已经公布了! 收到邮件的小伙伴们,就像在开盲盒一样,纷纷在社交媒体上晒出了自己的成绩单。
NeurIPS 2024放榜,人大附中有高中生一作入选。
7月27日,与ICLR(国际学习表示会议)、NeurIPS(神经信息处理系统会议)并称三大机器学习顶级会议的ICML(国际机器学习大会),在奥地利维也纳会展中心落下帷幕。
在众多人工智能顶会中,NeurIPS 属于什么段位?有人将其代入《甄嬛传》宇宙做了张图:大概配享「后位」。
一年一度谷歌学术指标公布了!Nature年年霸榜,而今年与以往不同的是,国际学术顶会的排名大幅提升,CVPR位居第二,超越Science仅次于Nature。另外,TOP 20中,共有五大顶会入选,被引最高论文与大模型时代下前沿技术,一脉相承。
培养 AI 人才,要从娃娃抓起,这句话似乎越来越不像开玩笑了。 本周五,顶级学术会议 NeurIPS 开设高中生论文 Track 的消息引爆了人工智能社区