AI资讯新闻榜单内容搜索-AL

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: AL
谷歌发布最新「读屏」AI!PaLM 2-S自动生成数据,多项理解任务刷新SOTA

谷歌发布最新「读屏」AI!PaLM 2-S自动生成数据,多项理解任务刷新SOTA

谷歌发布最新「读屏」AI!PaLM 2-S自动生成数据,多项理解任务刷新SOTA

谷歌在语言和声控计算机界面的漫长道路上又迈出了重要一步。最新ScreenAI视觉语言模型,能够完成各种屏幕QA问答、总结摘要等任务。

来自主题: AI技术研报
10194 点击    2024-03-05 10:35
马斯克怒告OpenAI案解密:Ilya看到了什么?125万亿参数Q*细节曝光,53页PDF全网疯转

马斯克怒告OpenAI案解密:Ilya看到了什么?125万亿参数Q*细节曝光,53页PDF全网疯转

马斯克怒告OpenAI案解密:Ilya看到了什么?125万亿参数Q*细节曝光,53页PDF全网疯转

现在,马斯克起诉OpenAI案的最大未解之谜,就集中在了「Ilya究竟看到了什么」上。他看到的东西,让OpenAI大震荡,所有模型推出计划被削弱和延期。最近网上曝出的一份53页PDF,就透露了Q*的许多重大细节:125万亿参数,去年12月已训完。但马斯克这么一闹,恐怕Q*面世的时间还要大大延迟。

来自主题: AI资讯
8258 点击    2024-03-04 15:00
对比8家日本顶尖AI公司,中日技术差距多少年?

对比8家日本顶尖AI公司,中日技术差距多少年?

对比8家日本顶尖AI公司,中日技术差距多少年?

前段时间,种子轮融资3000万美元的日本公司Sakana AI,因为众多亮眼标签,受到很多关注——谷歌科学家、硅谷原班人马、总部扎根东京、小模型……

来自主题: AI资讯
12561 点击    2024-03-04 09:45
为了AGI,全员主动996!OpenAI匿名员工自曝3年工作感受

为了AGI,全员主动996!OpenAI匿名员工自曝3年工作感受

为了AGI,全员主动996!OpenAI匿名员工自曝3年工作感受

996作息表爆火后,许多人一定好奇在OpenAI工作究竟是怎样的感受。最近,多位匿名员工在求职网站Glassdoor纷纷对雇主打分评价,高薪却996。最经典的评价是:潜力巨大,但成长烦恼也是真实的。

来自主题: AI资讯
5255 点击    2024-03-03 17:43
模型偏好只与大小有关?上交大全面解析人类与32种大模型偏好的定量组分

模型偏好只与大小有关?上交大全面解析人类与32种大模型偏好的定量组分

模型偏好只与大小有关?上交大全面解析人类与32种大模型偏好的定量组分

在目前的模型训练范式中,偏好数据的的获取与使用已经成为了不可或缺的一环。在训练中,偏好数据通常被用作对齐(alignment)时的训练优化目标,如基于人类或 AI 反馈的强化学习(RLHF/RLAIF)或者直接偏好优化(DPO),而在模型评估中,由于任务的复杂性且通常没有标准答案,则通常直接以人类标注者或高性能大模型(LLM-as-a-Judge)的偏好标注作为评判标准。

来自主题: AI技术研报
11589 点击    2024-03-02 14:58
全新「多模态」生图AI文字渲染暴打Midjourney+DALL·E 3!5亿融资Karpathy都投了

全新「多模态」生图AI文字渲染暴打Midjourney+DALL·E 3!5亿融资Karpathy都投了

全新「多模态」生图AI文字渲染暴打Midjourney+DALL·E 3!5亿融资Karpathy都投了

Ideogram凭借不输Midjourney的生图能力和遥遥领先的图片中文字渲染能力,获得了包括Jeff Dean和Karpathy在内一众大佬的8000万美元融资,文生图这条离钱最近的AI赛道又加入了一名重量级选手。

来自主题: AI资讯
7064 点击    2024-03-01 17:28
能力与可信度可以兼得?GPT-4、Gemini等多模态大模型评测报告来了

能力与可信度可以兼得?GPT-4、Gemini等多模态大模型评测报告来了

能力与可信度可以兼得?GPT-4、Gemini等多模态大模型评测报告来了

2023 年我们正见证着多模态大模型的跨越式发展,多模态大语言模型(MLLM)已经在文本、代码、图像、视频等多模态内容处理方面表现出了空前的能力,成为技术新浪潮。以 Llama 2,Mixtral 为代表的大语言模型(LLM),以 GPT-4、Gemini、LLaVA 为代表的多模态大语言模型跨越式发展。

来自主题: AI资讯
9375 点击    2024-03-01 13:47
几行代码稳定UNet ! 中山大学等提出ScaleLong扩散模型:从质疑Scaling到成为Scaling

几行代码稳定UNet ! 中山大学等提出ScaleLong扩散模型:从质疑Scaling到成为Scaling

几行代码稳定UNet ! 中山大学等提出ScaleLong扩散模型:从质疑Scaling到成为Scaling

本文提出了扩散模型中UNet的long skip connection的scaling操作可以有助于模型稳定训练的分析,目前已被NeurIPS 2023录用。同时,该分析还可以解释扩散模型中常用但未知原理的1/√2 scaling操作能加速训练的现象。

来自主题: AI技术研报
8198 点击    2024-02-29 13:52