AI资讯新闻榜单内容搜索-训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 训练
告别3D高斯Splatting算法,带神经补偿的频谱剪枝高斯场SUNDAE开源了

告别3D高斯Splatting算法,带神经补偿的频谱剪枝高斯场SUNDAE开源了

告别3D高斯Splatting算法,带神经补偿的频谱剪枝高斯场SUNDAE开源了

本论文作者包括帝国理工学院硕士生杨润一、北航二年级硕士生朱贞欣、北京理工大学二年级硕士生姜洲、北京理工大学四年级本科生叶柏均、中国科学院大学本科大三学生张逸飞、中国电信人工智能研究院多媒体认知学习实验室(EVOL Lab)负责人赵健、清华大学智能产业研究院(AIR)助理教授赵昊等。

来自主题: AI资讯
6452 点击    2024-05-15 23:44
Google如何做医疗大模型(Med-Gemini)

Google如何做医疗大模型(Med-Gemini)

Google如何做医疗大模型(Med-Gemini)

在《如何制造一个垂直领域大模型》一文中我们列举了几种开发垂直领域模型的方法。其中医疗、法律等专业是比较能体现模型垂直行业能力的,因此也深受各大厂商的重视。

来自主题: AI技术研报
10415 点击    2024-05-14 21:55
字节开源大模型量化新思路,2-bit量化模型精度齐平fp16

字节开源大模型量化新思路,2-bit量化模型精度齐平fp16

字节开源大模型量化新思路,2-bit量化模型精度齐平fp16

随着深度学习大语言模型的越来越火爆,大语言模型越做越大,使得其推理成本也水涨船高。模型量化,成为一个热门的研究课题。

来自主题: AI技术研报
5990 点击    2024-05-13 17:18
Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动

Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动

Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动

众所周知,大语言模型的训练常常需要数月的时间,使用数百乃至上千个 GPU。以 LLaMA2 70B 模型为例,其训练总共需要 1,720,320 GPU hours。由于这些工作负载的规模和复杂性,导致训练大模型存在着独特的系统性挑战。

来自主题: AI技术研报
7440 点击    2024-05-12 15:49
70亿LLaMA媲美5400亿PaLM!MIT惊人研究用「博弈论」改进大模型|ICLR 2024

70亿LLaMA媲美5400亿PaLM!MIT惊人研究用「博弈论」改进大模型|ICLR 2024

70亿LLaMA媲美5400亿PaLM!MIT惊人研究用「博弈论」改进大模型|ICLR 2024

大模型回答如何更可靠?MIT研究团队设计出「共识博弈」,将数学家常用的博弈论引入LLM改进中。没想到,LLaMA-7B的表现,击败了LLaMA-65B,甚至与PaLM-540B相媲美。

来自主题: AI技术研报
8739 点击    2024-05-12 15:19
人类偏好就是尺!SPPO对齐技术让大语言模型左右互搏、自我博弈

人类偏好就是尺!SPPO对齐技术让大语言模型左右互搏、自我博弈

人类偏好就是尺!SPPO对齐技术让大语言模型左右互搏、自我博弈

Richard Sutton 在 「The Bitter Lesson」中做过这样的评价:「从70年的人工智能研究中可以得出的最重要教训是,那些利用计算的通用方法最终是最有效的,而且优势巨大。」

来自主题: AI技术研报
7013 点击    2024-05-12 11:26
坏了,我的RTX 3090 GPU在对我唱歌!

坏了,我的RTX 3090 GPU在对我唱歌!

坏了,我的RTX 3090 GPU在对我唱歌!

在一个昏暗的机箱里,一台 RTX 3090 GPU「唱」着经典英语儿歌《一闪一闪亮晶晶》(Twinkle,Twinkle,Little Star)的旋律。

来自主题: AI资讯
7544 点击    2024-05-12 11:16