
纯文本模型训出「视觉」表征!MIT最新研究:语言模型用代码就能作画
纯文本模型训出「视觉」表征!MIT最新研究:语言模型用代码就能作画不用图像,只用文本就能训练出视觉概念表征?用写代码的方式读懂画面,形状、物体、场景都能懂!
不用图像,只用文本就能训练出视觉概念表征?用写代码的方式读懂画面,形状、物体、场景都能懂!
MIT计算机科学与人工智能实验室(CSAIL)的一项研究发现:不用担心视觉AI会很快淘汰人类打工人,因为对于企业来说,它们实在是太贵了。
数据获取最新解,便是从生成模型中学习。获取高质量数据,已经成为当前大模型训练的一大瓶颈。
22倍加速还不够,再来提升46%,而且方法直接开源!这就是开源社区改进MIT爆火项目StreamingLLM的最新成果。
一个来自MIT博士生的惊人发现:只需对Transformer的特定层进行一种非常简单的修剪,即可在缩小模型规模的同时显著提高模型性能。
在AI的帮助下,MIT科学家解锁了60年以来的第一批用于对抗金黄色葡萄球菌的新抗生素!
11月29、30日,第八届·灵眸大赏Morketing Summit在中国·上海成功召开。
MIT、微软联合研究:不需要额外训练,也能增强大语言模型的任务性能并降低其大小。
过度训练让中度模型出现了结构泛化能力。
最近,由CMU/MIT/清华/Umass提出的全球首个生成式机器人智能体RoboGen,可以无限生成数据,让机器人7*24小时永不停歇地训练。AIGC for Robotics,果然是未来的方向。