AI资讯新闻榜单内容搜索-算法

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 算法
仅需200M参数,零样本性能超越有监督!谷歌发布时序预测基础模型TimesFM

仅需200M参数,零样本性能超越有监督!谷歌发布时序预测基础模型TimesFM

仅需200M参数,零样本性能超越有监督!谷歌发布时序预测基础模型TimesFM

TimesFM针对时序数据设计,输出序列长于输入序列,在1000亿时间点数据进行预训练后,仅用200M参数量就展现出超强零样本学习能力!

来自主题: AI技术研报
4567 点击    2024-03-15 15:42
只是因为我姓王,AI就把我的简历扔进了垃圾桶

只是因为我姓王,AI就把我的简历扔进了垃圾桶

只是因为我姓王,AI就把我的简历扔进了垃圾桶

这篇文章介绍了实验结果显示,AI在简历筛选中存在歧视现象。通过测试ChatGPT和GPT4,发现它们对不同背景和人群有偏爱或歧视。文章提出了求职者可以适应AI喜好的方法,以应对算法歧视。

来自主题: AI资讯
4250 点击    2024-03-12 09:21
当prompt策略遇上分治算法,南加大、微软让大模型炼成「火眼金睛」

当prompt策略遇上分治算法,南加大、微软让大模型炼成「火眼金睛」

当prompt策略遇上分治算法,南加大、微软让大模型炼成「火眼金睛」

近年来,大语言模型(LLMs)由于其通用的问题处理能力而引起了大量的关注。现有研究表明,适当的提示设计(prompt enginerring),例如思维链(Chain-of-Thoughts),可以解锁 LLM 在不同领域的强大能力。

来自主题: AI资讯
5363 点击    2024-03-11 17:28
基于DiT,支持4K图像生成,华为诺亚0.6B文生图模型PixArt-Σ来了

基于DiT,支持4K图像生成,华为诺亚0.6B文生图模型PixArt-Σ来了

基于DiT,支持4K图像生成,华为诺亚0.6B文生图模型PixArt-Σ来了

众所周知,开发顶级的文生图(T2I)模型需要大量资源,因此资源有限的个人研究者基本都不可能承担得起,这也成为了 AIGC(人工智能内容生成)社区创新的一大阻碍。同时随着时间的推移,AIGC 社区又能获得持续更新的、更高质量的数据集和更先进的算法。

来自主题: AI技术研报
9028 点击    2024-03-10 16:10
AI数学基础扫盲

AI数学基础扫盲

AI数学基础扫盲

AI中的应用:在机器学习中,单条数据样本的表征都是以向量化的形式来完成的。向量化的方式可以帮助AI算法在迭代与计算过程中,以更高效的方式完成。

来自主题: AI技术研报
8711 点击    2024-03-10 10:37
扩散模型如何构建新一代决策智能体?超越自回归,同时生成长序列规划轨迹

扩散模型如何构建新一代决策智能体?超越自回归,同时生成长序列规划轨迹

扩散模型如何构建新一代决策智能体?超越自回归,同时生成长序列规划轨迹

近期的研究表明,采用扩散模型的规划模块能够同时生成长序列的轨迹规划,这更加符合人类的决策模式。此外,扩散模型在策略表征和数据合成方面也能为现有的决策智能算法提供更优的选择。

来自主题: AI技术研报
5759 点击    2024-03-09 15:05
中国生成式AI的“物种大爆炸”

中国生成式AI的“物种大爆炸”

中国生成式AI的“物种大爆炸”

近国外的Sora风头正劲,让不少国人产生了悲观情绪。其实,国内生成式AI也在迅速的发展中,就在Sora发布后不久的2月18日,网信办发布了第四批深度合成服务算法备案信息,从中可以一窥我国生成式AI的现状。

来自主题: AI资讯
8952 点击    2024-03-07 10:27
Claude 3成功破解未公开算法?智商测试101分超越人类/碾压GPT-4!网友惊呼:实测比跑分还强

Claude 3成功破解未公开算法?智商测试101分超越人类/碾压GPT-4!网友惊呼:实测比跑分还强

Claude 3成功破解未公开算法?智商测试101分超越人类/碾压GPT-4!网友惊呼:实测比跑分还强

网友测试Claude之后惊呼:实测比跑分厉害多了!智商测试中碾压GPT-4,得分高达101。而且能发现量子物理学家还未发表的量子算法。

来自主题: AI技术研报
8455 点击    2024-03-06 14:43
几行代码稳定UNet ! 中山大学等提出ScaleLong扩散模型:从质疑Scaling到成为Scaling

几行代码稳定UNet ! 中山大学等提出ScaleLong扩散模型:从质疑Scaling到成为Scaling

几行代码稳定UNet ! 中山大学等提出ScaleLong扩散模型:从质疑Scaling到成为Scaling

本文提出了扩散模型中UNet的long skip connection的scaling操作可以有助于模型稳定训练的分析,目前已被NeurIPS 2023录用。同时,该分析还可以解释扩散模型中常用但未知原理的1/√2 scaling操作能加速训练的现象。

来自主题: AI技术研报
7337 点击    2024-02-29 13:52