AI资讯新闻榜单内容搜索-谷歌

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 谷歌
背叛好友、性暗示、剥夺归属权,AI社交有“天坑”

背叛好友、性暗示、剥夺归属权,AI社交有“天坑”

背叛好友、性暗示、剥夺归属权,AI社交有“天坑”

最近,前谷歌DeepMind研究员做了一款能听懂人的语气、捕捉人的情绪的AI社交

来自主题: AI资讯
3209 点击    2024-04-18 15:35
无向图最小割问题取得新突破,谷歌研究获SODA 2024最佳论文奖

无向图最小割问题取得新突破,谷歌研究获SODA 2024最佳论文奖

无向图最小割问题取得新突破,谷歌研究获SODA 2024最佳论文奖

Karger 算法可以在时间为 O (m log^3n) 的图中找到一个最小割点,他们将这个时间称之为近线性时间,意思是线性乘以一个多对数因子

来自主题: AI技术研报
7848 点击    2024-04-17 20:21
看懂网飞版「三体」!Reka Core登场:挑战GPT-4、Claude 3

看懂网飞版「三体」!Reka Core登场:挑战GPT-4、Claude 3

看懂网飞版「三体」!Reka Core登场:挑战GPT-4、Claude 3

近日,由DeepMind、谷歌和Meta的研究人员创立的AI初创公司Reka,推出了他们最新的多模态语言模型——Reka Core

来自主题: AI技术研报
4971 点击    2024-04-17 19:11
DeepMind升级Transformer,前向通过FLOPs最多可降一半

DeepMind升级Transformer,前向通过FLOPs最多可降一半

DeepMind升级Transformer,前向通过FLOPs最多可降一半

Transformer 的重要性无需多言,目前也有很多研究团队致力于改进这种变革性技术,其中一个重要的改进方向是提升 Transformer 的效率,比如让其具备自适应计算能力,从而可以节省下不必要的计算。

来自主题: AI资讯
3565 点击    2024-04-16 21:18
还在卷长文本?谷歌最新论文直接把文本干到…无限长了

还在卷长文本?谷歌最新论文直接把文本干到…无限长了

还在卷长文本?谷歌最新论文直接把文本干到…无限长了

通过这项技术,能使transformer大模型在有限的计算资源 条件下,处理无限长度的输入。

来自主题: AI技术研报
5909 点击    2024-04-15 15:15
Google成了“AI界汪峰”,全都怪OpenAI?

Google成了“AI界汪峰”,全都怪OpenAI?

Google成了“AI界汪峰”,全都怪OpenAI?

2016 年,Google CEO 桑达尔·皮查伊在 I/O 开发者大会上豪情满怀地向全世界宣布: Google 已经成为了搜索的代名词,Alphabet 未来将成为一家 AI 优先的公司。

来自主题: AI资讯
9374 点击    2024-04-15 10:48
本周(4.8-4.14)AI界发生了什么?

本周(4.8-4.14)AI界发生了什么?

本周(4.8-4.14)AI界发生了什么?

太平洋时间4月9日,谷歌、OpenAl、Mistral在24小时内,接连发布大模型重磅更新。

来自主题: AI资讯
9939 点击    2024-04-15 10:37
谷歌:假如AI大模型支持无限长上下文,会如何?

谷歌:假如AI大模型支持无限长上下文,会如何?

谷歌:假如AI大模型支持无限长上下文,会如何?

为解决大模型(LLMs)在处理超长输入序列时遇到的内存限制问题,本文作者提出了一种新型架构:Infini-Transformer,它可以在有限内存条件下,让基于Transformer的大语言模型(LLMs)高效处理无限长的输入序列。实验结果表明:Infini-Transformer在长上下文语言建模任务上超越了基线模型,内存最高可节约114倍。

来自主题: AI资讯
8415 点击    2024-04-14 11:32
直接扩展到无限长,谷歌Infini-Transformer终结上下文长度之争

直接扩展到无限长,谷歌Infini-Transformer终结上下文长度之争

直接扩展到无限长,谷歌Infini-Transformer终结上下文长度之争

谷歌又放大招了,发布下一代 Transformer 模型 Infini-Transformer。

来自主题: AI技术研报
9004 点击    2024-04-13 16:44