AI资讯新闻榜单内容搜索-Meta

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Meta
把整个地球装进神经网络,北航团队推出全球遥感图像生成模型

把整个地球装进神经网络,北航团队推出全球遥感图像生成模型

把整个地球装进神经网络,北航团队推出全球遥感图像生成模型

北航的研究团队,用扩散模型“复刻”了一个地球? 在全球的任意位置,模型都能生成多种分辨率的遥感图像,创造出丰富多样的“平行场景”。 而且地形、气候、植被等复杂的地理特征,也全都考虑到了。

来自主题: AI技术研报
7220 点击    2024-06-05 23:18
next-token被淘汰!Meta实测「多token」训练方法,推理提速3倍,性能大涨10%+

next-token被淘汰!Meta实测「多token」训练方法,推理提速3倍,性能大涨10%+

next-token被淘汰!Meta实测「多token」训练方法,推理提速3倍,性能大涨10%+

研究人员提出了一种新的大型语言模型训练方法,通过一次性预测多个未来tokens来提高样本效率和模型性能,在代码和自然语言生成任务上均表现出显著优势,且不会增加训练时间,推理速度还能提升至三倍。

来自主题: AI技术研报
8607 点击    2024-06-03 11:00
开源模型进展盘点:最新Mixtral、Llama 3、Phi-3、OpenELM到底有多好?

开源模型进展盘点:最新Mixtral、Llama 3、Phi-3、OpenELM到底有多好?

开源模型进展盘点:最新Mixtral、Llama 3、Phi-3、OpenELM到底有多好?

深度学习领域知名研究者、Lightning AI 的首席人工智能教育者 Sebastian Raschka 对 AI 大模型有着深刻的洞察,也会经常把一些观察的结果写成博客。在一篇 5 月中发布的博客中,他盘点分析了 4 月份发布的四个主要新模型:Mixtral、Meta AI 的 Llama 3、微软的 Phi-3 和苹果的 OpenELM。

来自主题: AI技术研报
8820 点击    2024-06-02 14:42
全球万亿AI军备竞赛开启:BAT投入加起来不敌半个谷歌

全球万亿AI军备竞赛开启:BAT投入加起来不敌半个谷歌

全球万亿AI军备竞赛开启:BAT投入加起来不敌半个谷歌

2023年,亚马逊、Meta、谷歌、微软四家公司整体投入体量更大、增速飞快,而腾讯、阿里巴巴、百度没有明显加大投入、追赶超越的动作,这一定程度说明未来在AI竞争上的差距还将扩大。

来自主题: AI资讯
9373 点击    2024-05-29 09:58
重建Meta帝国:用AI“回敬”TikTok

重建Meta帝国:用AI“回敬”TikTok

重建Meta帝国:用AI“回敬”TikTok

2023年5月,美国白宫举办了一场AI主题闭门会,嘉宾名单汇聚了中青少三代——老资历谷歌、微软,新星OpenAI,初创的Anthropic,却唯独没有Meta。

来自主题: AI资讯
9401 点击    2024-05-24 11:02
不能承受的「平庸」之重:字节跳动的AI反击战

不能承受的「平庸」之重:字节跳动的AI反击战

不能承受的「平庸」之重:字节跳动的AI反击战

不创新,死路一条 字节跳动,已无法再低调。 • 外媒报道,字节跳动2023年营收1100亿美元,可能超过腾讯、逼近Meta; • TikTok在美国渡劫,作为增长引擎的海外业务遭遇不确定性; • 字节跳动在AI竞赛上显得“迟钝”,公司内部“到2023年才开始讨论GPT”;

来自主题: AI资讯
8627 点击    2024-05-22 13:04
150B token从头训练,普林斯顿Meta发布完全可微MoE架构Lory

150B token从头训练,普林斯顿Meta发布完全可微MoE架构Lory

150B token从头训练,普林斯顿Meta发布完全可微MoE架构Lory

前几天,普林斯顿大学联合Meta在arXiv上发表了他们最新的研究成果——Lory模型,论文提出构建完全可微的MoE模型,是一种预训练自回归语言模型的新方法。

来自主题: AI技术研报
9582 点击    2024-05-20 16:10
Meta首发「变色龙」挑战GPT-4o,34B参数引领多模态革命!10万亿token训练刷新SOTA

Meta首发「变色龙」挑战GPT-4o,34B参数引领多模态革命!10万亿token训练刷新SOTA

Meta首发「变色龙」挑战GPT-4o,34B参数引领多模态革命!10万亿token训练刷新SOTA

GPT-4o发布不到一周,首个敢于挑战王者的新模型诞生!最近,Meta团队发布了「混合模态」Chameleon,可以在单一神经网络无缝处理文本和图像。10万亿token训练的34B参数模型性能接近GPT-4V,刷新SOTA。

来自主题: AI技术研报
8551 点击    2024-05-19 15:48
Llama 3加持,用户实测Meta AI还是弱爆了!小扎弯道超车的策略竟是「免费+不限量」?

Llama 3加持,用户实测Meta AI还是弱爆了!小扎弯道超车的策略竟是「免费+不限量」?

Llama 3加持,用户实测Meta AI还是弱爆了!小扎弯道超车的策略竟是「免费+不限量」?

Llama 3开源后,聊天机器人Meta AI也宣布使用新模型作为基座,在Meta旗下的各种软件(Meta.ai、Instagram、Facebook、WhatsApp)中都可以进行免费体验。

来自主题: AI技术研报
9746 点击    2024-05-18 17:51
Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动

Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动

Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动

众所周知,大语言模型的训练常常需要数月的时间,使用数百乃至上千个 GPU。以 LLaMA2 70B 模型为例,其训练总共需要 1,720,320 GPU hours。由于这些工作负载的规模和复杂性,导致训练大模型存在着独特的系统性挑战。

来自主题: AI技术研报
5660 点击    2024-05-12 15:49