你刷抖音小红书不会变笨,但你的 AI 会
你刷抖音小红书不会变笨,但你的 AI 会好消息:AI 越来越好用了。 坏消息:越用它越笨。
好消息:AI 越来越好用了。 坏消息:越用它越笨。
11月的第一天,一支12年周期的 AI Fund——「锦秋基金」办了一场 CEO 大会。
AI播客现在是否已成为了一门好生意?
在大数据和大模型推动下,微调技术凭借成本低、效率高优势,成为应对小样本、长尾目标等复杂场景的利器。从早期全参数微调到参数高效微调(PEFT),再到如今融合多种PEFT技术的混合微调,遥感微调技术不断进化。清华大学等团队在CVMJ期刊上系统梳理了技术脉络,并指出了九个潜在研究方向,助力遥感技术在农业监测、天气预报等关键领域发挥更大作用。
前段时间某视频模型更新 2.0 的时候,写了一篇文章,其中提到了一个观点:用户不需要第二个 AI 视频的抖音。这次核心不是模型能力提升,不是 AI Feed 流,而是底层模型能力提升带来的全新「创意社交」玩法。
在 AI 多模态的发展历程中,OpenAI 的 CLIP 让机器第一次具备了“看懂”图像与文字的能力,为跨模态学习奠定了基础。如今,来自 360 人工智能研究院冷大炜团队的 FG-CLIP 2 正式发布并开源,在中英文双语任务上全面超越 MetaCLIP 2 与 SigLIP 2,并通过新的细粒度对齐范式,补足了第一代模型在细节理解上的不足。
AI时代,人不再只是「社会关系的总和」,而是由无数数据、记录和互动的上下文构成的。
统一多模态模型要求视觉表征必须兼顾语义(理解)和细节(生成 / 编辑)。早期 VAE 因语义不足而理解受限。近期基于 CLIP 的统一编码器,面临理解与重建的权衡:直接量化 CLIP 特征会损害理解性能;而为冻结的 CLIP 训练解码器,又因特征细节缺失而无法精确重建。例如,RAE 使用冻结的 DINOv2 重建,PSNR 仅 19.23。
奥特曼正在用万亿美金的算力豪赌,试图买下全球GPU来喂饱「增长黑洞」。为什么AI竞争的终局不是模型,而是算力?
从 AI 女友到数字面试官,人格化 AI 正在「登陆」你的所有屏幕。