# 热门搜索 #
搜索
搜索: 数据集
你以为的LLM上下文学习超能力,究竟来自哪里,ICL的内部机制如何 |最新发布

上下文学习(In-Context Learning, ICL)是指LLMs能够仅通过提示中给出的少量样例,就迅速掌握并执行新任务的能力。这种“超能力”让LLMs表现得像是一个"万能学习者",能够在各种场景下快速适应并产生高质量输出。然而,关于ICL的内部机制,学界一直存在争议。

来自主题: AI资讯
3946 点击    2024-09-11 10:17
AI训练数据之困:垃圾进,垃圾出

所有模型都是通过在来自互联网的海量数据上进行训练来工作的,然而,随着人工智能越来越多地被用来生成充满垃圾信息的网页,这一过程可能会受到威胁。

来自主题: AI资讯
7133 点击    2024-09-09 10:29
突破传统:AI如何应对心电图中的长尾挑战?

近日,上海交通大学、上海人工智能实验室和上海交通大学附属瑞金医院联合团队发布基于异常检测预训练的心电长尾诊断模型。

来自主题: AI技术研报
5513 点击    2024-09-07 17:35
AI数据告急,大厂盯上廉价年轻人

说好的AI给人类打工呢? 为了拿到新数据、训练AI大模型,字节等互联网大厂正在亲自下场,以单次300元不等的价格招募“AI录音员”,定制语料库。

来自主题: AI资讯
3963 点击    2024-09-04 09:57