AI资讯新闻榜单内容搜索-mac

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: mac
仅4B!阿里千问最强视觉模型新开源,网友:我的16GB Mac有救了

仅4B!阿里千问最强视觉模型新开源,网友:我的16GB Mac有救了

仅4B!阿里千问最强视觉模型新开源,网友:我的16GB Mac有救了

智东西10月15日报道,今日,阿里通义千问团队推出其最强视觉语言模型系列Qwen3-VL的4B与8B版本,两个尺寸均提供Instruct与Thinking版本,在几十项权威基准测评中超越Gemini 2.5 Flash Lite、GPT-5 Nano等同级别顶尖模型。

来自主题: AI资讯
9425 点击    2025-10-15 17:05
谷歌新版Gemini一夜端掉UI:单HTML文件复刻macOS,成功率100%

谷歌新版Gemini一夜端掉UI:单HTML文件复刻macOS,成功率100%

谷歌新版Gemini一夜端掉UI:单HTML文件复刻macOS,成功率100%

前端UI的工作,被谷歌AI一夜干没了。 就在最新能力展示中,Gemini 3.0 Pro居然自己“捏”出了一个macOS。

来自主题: AI资讯
7391 点击    2025-10-15 15:03
英伟达AI超算3999开售,「掌心之中」可部署所有大参数开源模型!

英伟达AI超算3999开售,「掌心之中」可部署所有大参数开源模型!

英伟达AI超算3999开售,「掌心之中」可部署所有大参数开源模型!

英伟达面向个人的AI超算DGX Spark已上市!128GB统一内存(常规系统内存+GPU显存),加上允许将两台DGX Spark连起来,直接可以跑起来405B的大模型(FP4精度),而这已经逼近目前开源的最大模型!如此恐怖的实力却格外安静优雅,大小与Mac mini相仿,3999美元带回家!

来自主题: AI资讯
9148 点击    2025-10-14 22:34
拒绝小扎15亿美元offer的大佬,还是加入Meta了

拒绝小扎15亿美元offer的大佬,还是加入Meta了

拒绝小扎15亿美元offer的大佬,还是加入Meta了

那个拒绝了小扎15亿美元薪酬包的机器学习大神,还是加入Meta了。OpenAI前CTO Mira Murati创业公司Thinking Machines Lab证实,联创、首席架构师Andrew Tulloch已经离职去了Meta。

来自主题: AI资讯
7264 点击    2025-10-12 10:48
AI花17小时写了篇30页学术论文!自主选题,包含实验,还符合APA格式规范

AI花17小时写了篇30页学术论文!自主选题,包含实验,还符合APA格式规范

AI花17小时写了篇30页学术论文!自主选题,包含实验,还符合APA格式规范

不是拼凑知识点,AI这次是真搞研究。一个叫Virtuous Machines的AI系统,花了17小时、114美元,找了288个真人做实验,写了一篇30页的学术论文。而且还是从选题到成稿全自动化速通!?

来自主题: AI技术研报
9191 点击    2025-10-06 19:53
Murati翁荔陈丹琦公司发布首个产品,让大模型微调门槛暴降,要重新发明一个OpenAI

Murati翁荔陈丹琦公司发布首个产品,让大模型微调门槛暴降,要重新发明一个OpenAI

Murati翁荔陈丹琦公司发布首个产品,让大模型微调门槛暴降,要重新发明一个OpenAI

Thinking Machines Lab发布首个产品:Thinker,让模型微调变得像改Python代码一样简单。也算是终于摘掉了“0产品0收入估值840亿”的帽子。Tinker受到了业界的密切关注。AI基础设施公司Anyscale的CEO Robert Nishihara等beta测试者表示,尽管市面上有其他微调工具,但Tinker在“抽象化和可调性之间取得了卓越的平衡”

来自主题: AI资讯
9324 点击    2025-10-03 11:53
Thinking Machines曝LoRA终极指南:10倍学习率,媲美全参微调

Thinking Machines曝LoRA终极指南:10倍学习率,媲美全参微调

Thinking Machines曝LoRA终极指南:10倍学习率,媲美全参微调

LoRA能否与全参微调性能相当?在Thinking Machines的最新论文中,他们研究了LoRA与FullFT达到相近表现的条件。Thinking Machines关注LoRA,旨在推动其更广泛地应用于各种按需定制的场景,同时也有助于我们更深入审视机器学习中的一些基本问题。

来自主题: AI技术研报
8584 点击    2025-10-01 11:42
RLHF与RLVR全都要,陈丹琦团队最新力作将推理能力拓展到通用智能

RLHF与RLVR全都要,陈丹琦团队最新力作将推理能力拓展到通用智能

RLHF与RLVR全都要,陈丹琦团队最新力作将推理能力拓展到通用智能

一个月前,我们曾报道过清华姚班校友、普林斯顿教授陈丹琦似乎加入 Thinking Machines Lab 的消息。有些爆料认为她在休假一年后,会离开普林斯顿,全职加入 Thinking Machines Lab。

来自主题: AI技术研报
6808 点击    2025-09-28 16:46
翁荔陈丹琦加盟的840亿AI公司,公开第二篇论文

翁荔陈丹琦加盟的840亿AI公司,公开第二篇论文

翁荔陈丹琦加盟的840亿AI公司,公开第二篇论文

明星创业公司Thinking Machines,第二篇研究论文热乎出炉!公司创始人、OpenAI前CTO Mira Murati依旧亲自站台,翁荔等一众大佬也纷纷转发支持:论文主题为“Modular Manifolds”,通过让整个网络的不同层/模块在统一框架下进行约束和优化,来提升训练的稳定性和效率。

来自主题: AI技术研报
9064 点击    2025-09-28 09:54
估值840亿AI实验室再放大招,他们要给大模型戴上「紧箍咒」

估值840亿AI实验室再放大招,他们要给大模型戴上「紧箍咒」

估值840亿AI实验室再放大招,他们要给大模型戴上「紧箍咒」

在大模型训练时,如何管理权重、避免数值爆炸与丢失?Thinking Machines Lab 的新研究「模块流形」提出了一种新范式,它将传统「救火式」的数值修正,转变为「预防式」的约束优化,为更好地训练大模型提供了全新思路。

来自主题: AI资讯
8647 点击    2025-09-27 16:10