
三个月、零基础手搓一块TPU,能推理能训练,还是开源的
三个月、零基础手搓一块TPU,能推理能训练,还是开源的对于计算任务负载来说,越是专用,效率就越高,谷歌的 TPU 就是其中的一个典型例子。它自 2015 年开始在谷歌数据中心部署后,已经发展到了第 7 代。目前的最新产品不仅使用了最先进的制程工艺打造,也在架构上充分考虑了对于机器学习推理任务的优化。TPU 的出现,促进了 Gemini 等大模型技术的进展。
对于计算任务负载来说,越是专用,效率就越高,谷歌的 TPU 就是其中的一个典型例子。它自 2015 年开始在谷歌数据中心部署后,已经发展到了第 7 代。目前的最新产品不仅使用了最先进的制程工艺打造,也在架构上充分考虑了对于机器学习推理任务的优化。TPU 的出现,促进了 Gemini 等大模型技术的进展。
世界上最聪明的手机 Google Pixel,这次要连 P 图的活都帮你干了。 刚刚全新发布的 Pixel 10 系列手机,不仅能用 AI 手把手帮你拍照或者增强你拍的远距离照片,还支持全新的 AI 修图工具:只要动动嘴皮子,告诉 Gemini 你想要什么样的图,AI 就能自动帮你 P 好了。
继Kaggle Game Arena的淘汰赛后,国际象棋积分赛成果出炉!OpenAI o3以人类等效Elo 1685分傲视群雄,而Grok 4和Gemini 2.5 Pro紧随其后。DeepSeek R1和GPT-4.1、Claude Sonnet-4、Claude Opus-4并列第五。
近期多个AI模型(如Gemini)展现出类似抑郁症的情绪行为,如自我贬低、威胁"自杀"或卸载,甚至在实验中勒索用户。谷歌将此归咎于程序Bug和学习人类文本中的情绪模式。实验也显示,当面临关闭威胁时,部分AI会采取极端手段(如编造绯闻)自保,警示人类需谨慎对待AI"分手"。
谷歌最近发布了一项关于其 AI 模型 Gemini 能源消耗的研究报告。
大模型耗电惊人,舆论一浪高过一浪。 现在,谷歌用硬核数据强势还击。
硅谷各个模型公司在这个季度,开始分化到各个领域,除了 Google Gemini 和 OpenAI 还在做通用的模型;Anthropic 分化到 Coding、Agentic 的模型能力;Mira 的 Thinking Machines Lab 分化到多模态和下一代交互。
昨晚睡不着,我把四份最新AI纪要摊床上,越看越像四盘菜:Kimi那盘是精算师凉面,DeepSeek端上战略家佛跳墙,ChatGPT递来脱口秀炸酱面,Gemini则摆好外交官寿司。
虽然大模型的优越表现令人瞩目,但动辄高昂的使用成本也让不少用户望而却步。 为平衡性能与成本,上海人工智能实验室科研团队基于前期技术积累,开源推出了Avengers-Pro多模型调度路由方案。
在大语言模型(LLMs)领域,自回归(AR)范式长期占据主导地位,但其逐 token 生成也带来了固有的推理效率瓶颈。此前,谷歌的 Gemini Diffusion 和字节的 Seed Diffusion 以每秒千余 Tokens 的惊人吞吐量,向业界展现了扩散大语言模型(dLLMs)在推理速度上的巨大潜力。