AI资讯新闻榜单内容搜索-数据

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 数据
微软CTO:AI大模型的“Scaling Law”还能走多远?

微软CTO:AI大模型的“Scaling Law”还能走多远?

微软CTO:AI大模型的“Scaling Law”还能走多远?

Kevin Scott表示,过去20年里,人工智能领域最重要的进步都与“规模”有关;OpenAI的潜力在于未来可能成为构建AI平台的基础;数据的质量比数量更重要。

来自主题: AI资讯
9461 点击    2024-07-13 12:03
生成式模型不只会「模仿」!哈佛、UCSB等最新成果:性能可超越训练集专家水平

生成式模型不只会「模仿」!哈佛、UCSB等最新成果:性能可超越训练集专家水平

生成式模型不只会「模仿」!哈佛、UCSB等最新成果:性能可超越训练集专家水平

生成式模型原本被设计来模仿人类的各种复杂行为,但人们普遍认为它们最多只能达到与其训练数据中的专家相当的水平。不过,最新的研究突破了这一限制,表明在特定领域,如国际象棋,通过采用低温采样技术,这些模型能够超越它们所学习的那些专家,展现出更高的能力。

来自主题: AI技术研报
10137 点击    2024-07-12 17:18
WAIC观察:隐私计算加速落地产业,全新的技术标准体系呼之欲出

WAIC观察:隐私计算加速落地产业,全新的技术标准体系呼之欲出

WAIC观察:隐私计算加速落地产业,全新的技术标准体系呼之欲出

这几年,人们都在谈论大模型。特别是在 Scaling Law 的指导下,人们寄希望于将更大规模的数据用于训练,以无限提升模型的智能水平。在中国,「数据」作为一种与土地、劳动力、资本、技术并列的生产要素,价值越来越被重视。

来自主题: AI资讯
10364 点击    2024-07-10 18:33
LeCun新作:神经网络在实践中的灵活性到底有多大?

LeCun新作:神经网络在实践中的灵活性到底有多大?

LeCun新作:神经网络在实践中的灵活性到底有多大?

神经网络拟合数据的能力受哪些因素影响?CNN一定比Transformer差吗?ReLU和SGD还有哪些神奇的作用?近日,LeCun参与的一项工作向我们展示了神经网络在实践中的灵活性。

来自主题: AI技术研报
9576 点击    2024-07-10 18:23
图神经网络加持,突破传统推荐系统局限!北大港大联合提出SelfGNN:有效降低信息过载与数据噪声影响

图神经网络加持,突破传统推荐系统局限!北大港大联合提出SelfGNN:有效降低信息过载与数据噪声影响

图神经网络加持,突破传统推荐系统局限!北大港大联合提出SelfGNN:有效降低信息过载与数据噪声影响

SelfGNN框架结合了图神经网络和个性化自增强学习,能够捕捉用户行为的多时间尺度模式,降低噪声影响,提升推荐系统鲁棒性。

来自主题: AI技术研报
6688 点击    2024-07-09 16:12
ChatGPT无法取代人类程序员! IEEE 35页论文测出困难编码正确率仅为0.66%

ChatGPT无法取代人类程序员! IEEE 35页论文测出困难编码正确率仅为0.66%

ChatGPT无法取代人类程序员! IEEE 35页论文测出困难编码正确率仅为0.66%

6月,IEEE刊登了一篇对ChatGPT代码生成任务进行系统评估的论文,数据集就是程序员们最爱的LeetCode题库。研究揭示了LLM在代码任务中出现的潜在问题和能力局限,让我们能够对模型做出进一步改进,并逐渐了解使用ChatGPT写代码的最佳姿势。

来自主题: AI技术研报
5541 点击    2024-07-09 00:54
居家办公享时薪40美元!27岁华裔CEO招聘博士训练AI数据标注

居家办公享时薪40美元!27岁华裔CEO招聘博士训练AI数据标注

居家办公享时薪40美元!27岁华裔CEO招聘博士训练AI数据标注

市值140亿美元的初创公司Scale AI正在招聘博士训练LLM,用人成本的升高让该公司的毛利率在2023年有所下降,但创始人Alexandr Wang预计今年营收将增加两倍,突破十亿美元。

来自主题: AI资讯
11038 点击    2024-07-07 16:58