AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
参数少80%,效果仍超LoRA!上交大&上海AI Lab推出高效微调框架FLoRA

参数少80%,效果仍超LoRA!上交大&上海AI Lab推出高效微调框架FLoRA

参数少80%,效果仍超LoRA!上交大&上海AI Lab推出高效微调框架FLoRA

为了让大模型在特定任务、场景下发挥更大作用,LoRA这样能够平衡性能和算力资源的方法正在受到研究者们的青睐。

来自主题: AI技术研报
11071 点击    2024-07-04 11:05
60秒直出3D内容,纹理逼真!Meta最新3D Gen模型实现60倍速生成

60秒直出3D内容,纹理逼真!Meta最新3D Gen模型实现60倍速生成

60秒直出3D内容,纹理逼真!Meta最新3D Gen模型实现60倍速生成

Meta的GenAI团队在最新研究中介绍了Meta 3D Gen模型:可以在不到1分钟的时间内从文本直接端到端生成3D资产。

来自主题: AI技术研报
10720 点击    2024-07-03 16:15
大模型性能掺水严重?北大交出答卷:交互评估+动态出题,死记硬背也没用 | ACL 2024

大模型性能掺水严重?北大交出答卷:交互评估+动态出题,死记硬背也没用 | ACL 2024

大模型性能掺水严重?北大交出答卷:交互评估+动态出题,死记硬背也没用 | ACL 2024

当前大语言模型(LLM)的评估方法受到数据污染问题的影响,导致评估结果被高估,无法准确反映模型的真实能力。北京大学等提出的KIEval框架,通过知识基础的交互式评估,克服了数据污染的影响,更全面地评估了模型在知识理解和应用方面的能力。

来自主题: AI技术研报
5782 点击    2024-07-02 18:25
神经网络可能不再需要激活函数?Layer Normalization也具有非线性表达!

神经网络可能不再需要激活函数?Layer Normalization也具有非线性表达!

神经网络可能不再需要激活函数?Layer Normalization也具有非线性表达!

神经网络通常由三部分组成:线性层、非线性层(激活函数)和标准化层。线性层是网络参数的主要存在位置,非线性层提升神经网络的表达能力,而标准化层(Normalization)主要用于稳定和加速神经网络训练,很少有工作研究它们的表达能力,例如,以Batch Normalization为例

来自主题: AI技术研报
6411 点击    2024-07-02 17:38
哈工大提出创新迭代推理框架 DPE-MNER :充分发挥多模态表示潜力

哈工大提出创新迭代推理框架 DPE-MNER :充分发挥多模态表示潜力

哈工大提出创新迭代推理框架 DPE-MNER :充分发挥多模态表示潜力

多模态命名实体识别,作为构建多模态知识图谱的一项基础而关键任务,要求研究者整合多种模态信息以精准地从文本中提取命名实体。尽管以往的研究已经在不同层次上探索了多模态表示的整合方法,但在将这些多模态表示融合以提供丰富上下文信息、进而提升多模态命名实体识别的性能方面,它们仍显不足。

来自主题: AI技术研报
5337 点击    2024-07-02 17:35
ML工程师一次微调7个模型,击败OpenAI GPT-4

ML工程师一次微调7个模型,击败OpenAI GPT-4

ML工程师一次微调7个模型,击败OpenAI GPT-4

「微调你的模型,获得比GPT-4更好的性能」不只是说说而已,而是真的可操作。最近,一位愿意动手的ML工程师就把几个开源LLM调教成了自己想要的样子。

来自主题: AI技术研报
9077 点击    2024-07-02 15:26
【深度】通向AGI的钥匙:10万H100超级AI算力集群

【深度】通向AGI的钥匙:10万H100超级AI算力集群

【深度】通向AGI的钥匙:10万H100超级AI算力集群

10万张H100卡构成的超级AI算力集群就像是现代人类文明的奇观,是人类通向AGI的钥匙。​AI时代的军备竞赛已经拉开帷幕,赌注是天量的Capex支出,胜者则有机会成为AI时代的造物主。

来自主题: AI技术研报
11411 点击    2024-07-02 14:58
8B尺寸达到GPT-4级性能!北大等提出医疗专家模型训练方法

8B尺寸达到GPT-4级性能!北大等提出医疗专家模型训练方法

8B尺寸达到GPT-4级性能!北大等提出医疗专家模型训练方法

本文研究发现大语言模型在持续预训练过程中出现目标领域性能先下降再上升的现象。

来自主题: AI技术研报
9468 点击    2024-07-02 11:27
ICML 2024 Spotlight | 在解码中重新对齐,让语言模型更少幻觉、更符合人类偏好

ICML 2024 Spotlight | 在解码中重新对齐,让语言模型更少幻觉、更符合人类偏好

ICML 2024 Spotlight | 在解码中重新对齐,让语言模型更少幻觉、更符合人类偏好

本文介绍了一篇语言模型对齐研究的论文,由瑞士、英国、和法国的三所大学的博士生和 Google DeepMind 以及 Google Research 的研究人员合作完成。

来自主题: AI技术研报
9900 点击    2024-07-01 15:17
等不来OpenAI的Q*,华为诺亚探索LLM推理的秘密武器MindStar先来了

等不来OpenAI的Q*,华为诺亚探索LLM推理的秘密武器MindStar先来了

等不来OpenAI的Q*,华为诺亚探索LLM推理的秘密武器MindStar先来了

人工智能(AI)在过去十年里取得了长足进步,特别是在自然语言处理和计算机视觉领域。然而,如何提升 AI 的认知能力和推理能力,仍然是一个巨大的挑战。

来自主题: AI技术研报
9745 点击    2024-07-01 15:13
30倍于传统方法,中国科学院团队Transformer深度学习模型预测糖-蛋白质作用位点

30倍于传统方法,中国科学院团队Transformer深度学习模型预测糖-蛋白质作用位点

30倍于传统方法,中国科学院团队Transformer深度学习模型预测糖-蛋白质作用位点

糖类是自然界中最丰富的有机物质,对生命至关重要。了解糖类如何在生理和病理过程中调节蛋白质,可以为解决关键的生物学问题和开发新的治疗方法提供机遇。

来自主题: AI技术研报
10737 点击    2024-07-01 13:30
亚马逊云创新「神经稀疏检索」:仅需要文本匹配就能实现语义搜索

亚马逊云创新「神经稀疏检索」:仅需要文本匹配就能实现语义搜索

亚马逊云创新「神经稀疏检索」:仅需要文本匹配就能实现语义搜索

自从大模型爆火以来,语义检索也逐渐成为一项热门技术。尤其是在 RAG(retrieval augmented generation)应用中,检索结果的相关性直接决定了 AI 生成的最终效果。

来自主题: AI技术研报
10035 点击    2024-07-01 13:27
ICML 2024|Transformer究竟如何推理?基于样例还是基于规则

ICML 2024|Transformer究竟如何推理?基于样例还是基于规则

ICML 2024|Transformer究竟如何推理?基于样例还是基于规则

文章第一作者为来自北京大学物理学院、即将加入人工智能研究院读博的胡逸。胡逸的导师为北京大学人工智能研究院助理教授、北京通用人工智能研究院研究员张牧涵,主要研究方向为图机器学习和大模型的推理和微调。

来自主题: AI技术研报
9838 点击    2024-06-29 17:53
300多篇相关研究,复旦、南洋理工最新多模态图像编辑综述论文

300多篇相关研究,复旦、南洋理工最新多模态图像编辑综述论文

300多篇相关研究,复旦、南洋理工最新多模态图像编辑综述论文

本文提出了解决一般性编辑任务的统一框架!近期,复旦大学 FVL 实验室和南洋理工大学的研究人员对于多模态引导的基于文生图大模型的图像编辑算法进行了总结和回顾。综述涵盖 300 多篇相关研究,调研的最新模型截止至今年 6 月!

来自主题: AI技术研报
8532 点击    2024-06-29 00:35
Bengio团队提出多模态新基准,直指Claude 3.5和GPT-4o弱点

Bengio团队提出多模态新基准,直指Claude 3.5和GPT-4o弱点

Bengio团队提出多模态新基准,直指Claude 3.5和GPT-4o弱点

想要达成通用人工智能 AGI 的终极目标,首先要达成的是模型要能完成人类所能轻松做到的任务。为了做到这一点,大模型开发的关键指导之一便是如何让机器像人类一样思考和推理。诸如注意力机制和思维链(Chain-of-Thought)等技术正是由此产生的灵感。

来自主题: AI技术研报
8526 点击    2024-06-29 00:14
陈丹琦团队图表解读新基准:新王Claude3.5刚及格,但已是模型最强推理表现

陈丹琦团队图表解读新基准:新王Claude3.5刚及格,但已是模型最强推理表现

陈丹琦团队图表解读新基准:新王Claude3.5刚及格,但已是模型最强推理表现

Claude 3.5 Sonnet的图表推理能力,比GPT-4o高出了27.8%。 针对多模态大模型在图表任务上的表现,陈丹琦团队提出了新的测试基准。 新Benchmark比以往更有区分度,也让一众传统测试中的高分模型暴露出了真实能力。

来自主题: AI技术研报
10001 点击    2024-06-29 00:07
谷歌开源系模型第二代免费开放!27B媲美LLaMA3 70B,单H100或TPU主机可跑

谷歌开源系模型第二代免费开放!27B媲美LLaMA3 70B,单H100或TPU主机可跑

谷歌开源系模型第二代免费开放!27B媲美LLaMA3 70B,单H100或TPU主机可跑

谷歌开源模型Gemma 2开放了! 虽然前段时间Google I/O大会上,Gemma 2开源的消息就已经被放出,但谷歌还留了个小惊喜—— 除27B模型外,还有一个更轻的9B版本。 DeepMind创始人哈萨比斯表示,27B参数规模下,Gemma 2提供了同类模型最强性能,甚至还能与其两倍大的模型竞争。

来自主题: AI技术研报
8854 点击    2024-06-29 00:02
华东师范大学的老师,上课已经用上了大模型

华东师范大学的老师,上课已经用上了大模型

华东师范大学的老师,上课已经用上了大模型

人在华东师范大学,上课、教学已经用上了大模型。

来自主题: AI技术研报
10901 点击    2024-06-28 22:00
LLM最喜欢的随机数是什么?答案竟是ta!

LLM最喜欢的随机数是什么?答案竟是ta!

LLM最喜欢的随机数是什么?答案竟是ta!

计算机程序可以生成很像真随机的「伪随机数」,而LLM表示,干脆不装了,我就有自己最喜欢的数。

来自主题: AI技术研报
9479 点击    2024-06-28 16:37