AI资讯新闻榜单内容搜索-数据集

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 数据集
你以为的LLM上下文学习超能力,究竟来自哪里,ICL的内部机制如何 |最新发布

你以为的LLM上下文学习超能力,究竟来自哪里,ICL的内部机制如何 |最新发布

你以为的LLM上下文学习超能力,究竟来自哪里,ICL的内部机制如何 |最新发布

上下文学习(In-Context Learning, ICL)是指LLMs能够仅通过提示中给出的少量样例,就迅速掌握并执行新任务的能力。这种“超能力”让LLMs表现得像是一个"万能学习者",能够在各种场景下快速适应并产生高质量输出。然而,关于ICL的内部机制,学界一直存在争议。

来自主题: AI资讯
4685 点击    2024-09-11 10:17
AI训练数据之困:垃圾进,垃圾出

AI训练数据之困:垃圾进,垃圾出

AI训练数据之困:垃圾进,垃圾出

所有模型都是通过在来自互联网的海量数据上进行训练来工作的,然而,随着人工智能越来越多地被用来生成充满垃圾信息的网页,这一过程可能会受到威胁。

来自主题: AI资讯
7721 点击    2024-09-09 10:29
突破传统:AI如何应对心电图中的长尾挑战?

突破传统:AI如何应对心电图中的长尾挑战?

突破传统:AI如何应对心电图中的长尾挑战?

近日,上海交通大学、上海人工智能实验室和上海交通大学附属瑞金医院联合团队发布基于异常检测预训练的心电长尾诊断模型。

来自主题: AI技术研报
6281 点击    2024-09-07 17:35
AI+合成生物学,世界最大蛋白质相互作用数据库!

AI+合成生物学,世界最大蛋白质相互作用数据库!

AI+合成生物学,世界最大蛋白质相互作用数据库!

AlphaFold2解决了很大程度上解决了单体蛋白质结构预测问题。

来自主题: AI资讯
9734 点击    2024-09-05 15:16
AI数据告急,大厂盯上廉价年轻人

AI数据告急,大厂盯上廉价年轻人

AI数据告急,大厂盯上廉价年轻人

说好的AI给人类打工呢? 为了拿到新数据、训练AI大模型,字节等互联网大厂正在亲自下场,以单次300元不等的价格招募“AI录音员”,定制语料库。

来自主题: AI资讯
4655 点击    2024-09-04 09:57
MoE再下一城!港大提出AnyGraph:首次开启「图大模型」Scaling Law之路

MoE再下一城!港大提出AnyGraph:首次开启「图大模型」Scaling Law之路

MoE再下一城!港大提出AnyGraph:首次开启「图大模型」Scaling Law之路

AnyGraph聚焦于解决图数据的核心难题,跨越多种场景、特征和数据集进行预训练。其采用混合专家模型和特征统一方法处理结构和特征异质性,通过轻量化路由机制和高效设计提升快速适应能力,且在泛化能力上符合Scaling Law。

来自主题: AI技术研报
8203 点击    2024-09-02 16:35
AI落地前端实操,带你成为公司最懂AI的前端大佬!

AI落地前端实操,带你成为公司最懂AI的前端大佬!

AI落地前端实操,带你成为公司最懂AI的前端大佬!

基于公司私有组件生成代码,这个问题的本质是:由于大模型的训练数据集不包含你公司的私有组件数据,因此不能够生成符合公司私有组件库的代码。

来自主题: AI技术研报
9136 点击    2024-09-02 12:42
LLM蒸馏到GNN,性能提升6.2%!Emory提出大模型蒸馏到文本图|CIKM 2024

LLM蒸馏到GNN,性能提升6.2%!Emory提出大模型蒸馏到文本图|CIKM 2024

LLM蒸馏到GNN,性能提升6.2%!Emory提出大模型蒸馏到文本图|CIKM 2024

Emory大学的研究团队提出了一种创新的方法,将大语言模型(LLM)在文本图(Text-Attributed Graph, 缩写为TAG)学习中的强大能力蒸馏到本地模型中,以应对文本图学习中的数据稀缺、隐私保护和成本问题。通过训练一个解释器模型来理解LLM的推理过程,并对学生模型进行对齐优化,在多个数据集上实现了显著的性能提升,平均提高了6.2%。

来自主题: AI技术研报
10161 点击    2024-08-23 16:35