
拖拽P图技术又升级了:StableDrag更稳、更准,南大、腾讯联合打造
拖拽P图技术又升级了:StableDrag更稳、更准,南大、腾讯联合打造年 5 月,动动鼠标就能让图片变「活」得研究 DragGAN 吸引了 AI 圈的关注。通过拖拽,我们可以改变并合成自己想要的图像,比如下图中让一头狮子转头并张嘴!
年 5 月,动动鼠标就能让图片变「活」得研究 DragGAN 吸引了 AI 圈的关注。通过拖拽,我们可以改变并合成自己想要的图像,比如下图中让一头狮子转头并张嘴!
以上效果来自一个新的图生视频模型Follow-Your-Click,由腾讯混元、清华大学和香港科技大学联合推出。任意一张照片输入模型,只需要点击对应区域,加上少量简单的提示词,就可以让图片中原本静态的区域动起来,一键转换成视频。
3月13日,微医与腾讯在深圳签署战略合作协议,融合腾讯、微医在人工智能领域的积累与应用场景,共推医疗大模型,聚焦“六病共管”(肿瘤、心脑血管、呼吸、代谢、生殖医学以及老年病)为抓手形成专病智能产品,以人工智能助力三医协同,在国内打造医学人工智能应用示范城市。
在视频理解这一领域,尽管多模态模型在短视频分析上取得了突破性进展,展现出了较强的理解能力,但当它们面对电影级别的长视频时,却显得力不从心。因而,长视频的分析与理解,特别是对于长达数小时电影内容的理解,成为了当前的一个巨大挑战。
在线办公“三国杀”又要出新番了。
混合专家(MoE)架构已支持多模态大模型,开发者终于不用卷参数量了!北大联合中山大学、腾讯等机构推出的新模型MoE-LLaVA,登上了GitHub热榜。
现在,客户对云厂商的最大诉求是什么?“一是大模型,二是降本增效。”腾讯集团高级执行副总裁、云与智慧产业事业群CEO汤道生毫不犹豫地回答。
在1月24日举办的腾讯科技向善创新节2024“大模型安全与伦理专题论坛”上,腾讯发布了大模型安全白皮书《大模型安全与伦理研究报告2024:以负责任AI引领大模型创新》,并邀请业界专家进行圆桌研讨。
借助强大多模态模型,开创全新的网络智能体 Hongliang He1,3∗, Wenlin Yao2, Kaixin Ma2, Wenhao Yu2, Yong Dai2, Hongming Zhang2, Zhenzhong Lan3, Dong Yu2 1 浙江大学,2 腾讯 AI 实验室,3 西湖大学
融合多个异构大语言模型,中山大学、腾讯 AI Lab 推出 FuseLLM