AI资讯新闻榜单内容搜索-数据

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 数据
大模型扩展新维度:Scaling Down、Scaling Out

大模型扩展新维度:Scaling Down、Scaling Out

大模型扩展新维度:Scaling Down、Scaling Out

近年来, Scaling Up 指导下的 AI 基础模型取得了多项突破。从早期的 AlexNet、BERT 到如今的 GPT-4,模型规模从数百万参数扩展到数千亿参数,显著提升了 AI 的语言理解和生成等能力。然而,随着模型规模的不断扩大,AI 基础模型的发展也面临瓶颈:高质量数据的获取和处理成本越来越高,单纯依靠 Scaling Up 已难以持续推动 AI 基础模型的进步。

来自主题: AI技术研报
10605 点击    2025-02-21 15:43
Cell:AI虚拟细胞,生命科学的“终极沙盘”?

Cell:AI虚拟细胞,生命科学的“终极沙盘”?

Cell:AI虚拟细胞,生命科学的“终极沙盘”?

AI虚拟细胞,在计算机中代谢的生命体。2024年12月,斯坦福大学、基因泰克制药公司和陈-扎克伯格基金会的研究团队在《Cell》杂志上发表论文[1],呼吁全球科学界利用AI技术制造这一“数据细胞”。听起来像是科幻电影里的情节,但它正在悄然发生,并即将改变生物医学界的未来。

来自主题: AI技术研报
11449 点击    2025-02-21 10:10
「开源类脑芯片」二代发布!支持反向传播突触学习规则和并行神经元计算

「开源类脑芯片」二代发布!支持反向传播突触学习规则和并行神经元计算

「开源类脑芯片」二代发布!支持反向传播突触学习规则和并行神经元计算

在今年1月《Journal of Supercomputing》上开源的「开源类脑芯片」二代(Polaris 23)完整版本源代码,基于RISC-V架构,支持脉冲神经网络(SNN)和反向传播STDP。该芯片通过并行架构显著提升神经元和突触处理能力,带宽和能效大幅提升,MNIST数据集准确率达91%。

来自主题: AI技术研报
8517 点击    2025-02-21 09:35
视频版IC-Light来了!Light-A-Video提出渐进式光照融合,免训练一键视频重打光

视频版IC-Light来了!Light-A-Video提出渐进式光照融合,免训练一键视频重打光

视频版IC-Light来了!Light-A-Video提出渐进式光照融合,免训练一键视频重打光

数字化时代,视频内容的创作与编辑需求日益增长。从电影制作到社交媒体,高质量的视频编辑技术成为了行业的核心竞争力之一。然而,视频重打光(video relighting)—— 即对视频中的光照条件进行调整和优化,一直是这一领域的技术瓶颈。传统的视频重打光方法面临着高昂的训练成本和数据稀缺的双重挑战,导致其难以广泛应用。

来自主题: AI技术研报
3819 点击    2025-02-20 16:49
2024-arXiv-FinRobot: 一种基于大语言模型的开源金融应用 AI 智能体平台

2024-arXiv-FinRobot: 一种基于大语言模型的开源金融应用 AI 智能体平台

2024-arXiv-FinRobot: 一种基于大语言模型的开源金融应用 AI 智能体平台

随着金融机构和专业人士越来越多地将大语言模型(LLMs)纳入其工作流程中,金融领域与人工智能社区之间依然存在显著障碍,包括专有数据和专业知识的壁垒。本文提出了 FinRobot,一种支持多个金融专业化人工智能智能体的新型开源 AI 智能体平台,每个代理均由 LLM 提供动力。

来自主题: AI技术研报
8891 点击    2025-02-20 11:33
年入1.34亿,AI包工头成硅谷最慷慨老板

年入1.34亿,AI包工头成硅谷最慷慨老板

年入1.34亿,AI包工头成硅谷最慷慨老板

人工智能众包工作初创公司Invisible Technologies取得了巨大成功。而今,其创始人正拿它当作抵押进行借款,好买断其风投支持者的股份。

来自主题: AI资讯
6984 点击    2025-02-20 10:51
微软开放3.1T token高质量数据!通用/代码/数学/问答,全领域超越开源

微软开放3.1T token高质量数据!通用/代码/数学/问答,全领域超越开源

微软开放3.1T token高质量数据!通用/代码/数学/问答,全领域超越开源

RedStone是一个高效构建大规模指定领域数据的处理管道,通过优化数据处理流程,从Common Crawl中提取了RedStone-Web、RedStone-Code、RedStone-Math和RedStone-QA等数据集,在多项任务中超越了现有开源数据集,显著提升了模型性能。

来自主题: AI技术研报
7124 点击    2025-02-18 20:15
强化学习Scaling Law错了?无需蒸馏,数据量只要1/6,效果还更好

强化学习Scaling Law错了?无需蒸馏,数据量只要1/6,效果还更好

强化学习Scaling Law错了?无需蒸馏,数据量只要1/6,效果还更好

强化学习训练数据越多,模型推理能力就越强?新研究提出LIM方法,揭示提升推理能力的关键在于优化数据质量,而不是数据规模。该方法在小模型上优势尽显。从此,强化学习Scaling Law可能要被改写了!

来自主题: AI技术研报
6839 点击    2025-02-18 20:07