AI资讯新闻榜单内容搜索-训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 训练
陈丹琦团队新作:Llama-2上下文扩展至128k,10倍吞吐量仅需1/6内存

陈丹琦团队新作:Llama-2上下文扩展至128k,10倍吞吐量仅需1/6内存

陈丹琦团队新作:Llama-2上下文扩展至128k,10倍吞吐量仅需1/6内存

陈丹琦团队刚刚发布了一种新的LLM上下文窗口扩展方法:它仅用8k大小的token文档进行训练,就能将Llama-2窗口扩展至128k。

来自主题: AI技术研报
11133 点击    2024-02-29 13:27
谷歌豪掷6000万美元买「美版贴吧」数据,只为训AI模型!Altman竟是第三大股东

谷歌豪掷6000万美元买「美版贴吧」数据,只为训AI模型!Altman竟是第三大股东

谷歌豪掷6000万美元买「美版贴吧」数据,只为训AI模型!Altman竟是第三大股东

Reddit和OpenAI及谷歌,竟有着如此错综复杂的关系?最近,Reddit和谷歌双双官宣了一项6000万美元的合作协议,Reddit的数据将帮助谷歌训练AI模型。巧的是,Altman正是Reddit股东之一。

来自主题: AI资讯
9715 点击    2024-02-28 16:08
MATRIX:社会模拟推动大模型价值自对齐,比GPT4更「体贴」

MATRIX:社会模拟推动大模型价值自对齐,比GPT4更「体贴」

MATRIX:社会模拟推动大模型价值自对齐,比GPT4更「体贴」

随着大语言模型(LLMs)在近年来取得显著进展,它们的能力日益增强,进而引发了一个关键的问题:如何确保他们与人类价值观对齐,从而避免潜在的社会负面影响?

来自主题: AI技术研报
10720 点击    2024-02-27 14:03
大模型Scaling Law同样适用于下游任务性能?斯坦福、谷歌最新研究揭秘

大模型Scaling Law同样适用于下游任务性能?斯坦福、谷歌最新研究揭秘

大模型Scaling Law同样适用于下游任务性能?斯坦福、谷歌最新研究揭秘

大模型的成功很大程度上要归因于 Scaling Law 的存在,这一定律量化了模型性能与训练数据规模、模型架构等设计要素之间的关系,为模型开发、资源分配和选择合适的训练数据提供了宝贵的指导。

来自主题: AI技术研报
3445 点击    2024-02-27 14:00
Sora训练数据疑暴露,网友:绝对用了UE5

Sora训练数据疑暴露,网友:绝对用了UE5

Sora训练数据疑暴露,网友:绝对用了UE5

好消息,好消息,真·Sora视频上新了!走过路过不要错过!

来自主题: AI资讯
8353 点击    2024-02-25 15:45
谷歌AI视频再出王炸!全能通用视觉编码器VideoPrism,性能刷新30项SOTA

谷歌AI视频再出王炸!全能通用视觉编码器VideoPrism,性能刷新30项SOTA

谷歌AI视频再出王炸!全能通用视觉编码器VideoPrism,性能刷新30项SOTA

谷歌团队推出「通用视觉编码器」VideoPrism,在3600万高质量视频字幕对和5.82亿个视频剪辑的数据集上完成了训练,性能刷新30项SOTA。

来自主题: AI技术研报
5125 点击    2024-02-25 15:39
可控核聚变新里程碑!AI成功预测等离子体撕裂登Nature,清洁能源「圣杯」更近一步

可控核聚变新里程碑!AI成功预测等离子体撕裂登Nature,清洁能源「圣杯」更近一步

可控核聚变新里程碑!AI成功预测等离子体撕裂登Nature,清洁能源「圣杯」更近一步

困扰可控核聚变的一项重大难题,被AI成功攻克了!普林斯顿团队通过训练神经网络,提前300毫秒就预测了核聚变中的等离子不稳定态,因而能够防止等离子体的逃逸。人类离无穷尽的清洁能源,又近了一步。

来自主题: AI技术研报
8510 点击    2024-02-24 14:59