
「图结构学习」新思路!港大等提出GraphEdit模型:用LLM删除噪声边,全局理解节点间依赖关系
「图结构学习」新思路!港大等提出GraphEdit模型:用LLM删除噪声边,全局理解节点间依赖关系GraphEdit方法可以有效地去除图网络中的噪声连接,还能从全局视角识别节点间的依赖关系,在不同的实验设置中都被验证为有效且稳健。
GraphEdit方法可以有效地去除图网络中的噪声连接,还能从全局视角识别节点间的依赖关系,在不同的实验设置中都被验证为有效且稳健。
在如今的人工智能领域,「GPU is All You Need」已经逐渐成为共识。没有充足的 GPU,连 OpenAI 都不能轻易升级 ChatGPT。
前段时间,种子轮融资3000万美元的日本公司Sakana AI,因为众多亮眼标签,受到很多关注——谷歌科学家、硅谷原班人马、总部扎根东京、小模型……
随着 Sora 的爆火,人们看到了 AI 视频生成的巨大潜力,对这一领域的关注度也越来越高。
北大团队联合兔展发起了一项Sora复现计划——Open Sora。
Reddit和OpenAI及谷歌,竟有着如此错综复杂的关系?最近,Reddit和谷歌双双官宣了一项6000万美元的合作协议,Reddit的数据将帮助谷歌训练AI模型。巧的是,Altman正是Reddit股东之一。
Google DeepMind首席执行官Hassabis最近在接受WIRED采访时表示,AI技术现在还有很大的改进空间,还远没有到只能拼算力的时候。谷歌的优势在于科研能力,未来智能体将改变AI的格局。
没想到,AI要是“够废”,也能爆火全网。一个“什么问题都回答不了”的AI,这几天成了圈内新星。Reddit、HackerNews上讨论热度持续升高。
谷歌Gemini迎来重大更新,包括Gemini Ultra和Gemini Advanced服务的发布,以及Bard品牌消失,Gemini成为唯一品牌。Gemini Ultra全面进入谷歌生态产品,并在多学科复杂知识的理解和处理上取得了优秀成绩。
在文本生成音频(或音乐)这个 AIGC 赛道,Meta 最近又有了新研究成果,而且开源了。前几日,在论文《Masked Audio Generation using a Single Non-Autoregressive Transformer》中,Meta FAIR 团队、Kyutai 和希伯来大学推出了 MAGNeT,一种在掩码生成序列建模方法。