AI资讯新闻榜单内容搜索-Context

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Context
OpenAI 收购 Context.ai 团队,AI 评估能力再升级

OpenAI 收购 Context.ai 团队,AI 评估能力再升级

OpenAI 收购 Context.ai 团队,AI 评估能力再升级

科技媒体 maginative 今天(4 月 16 日)发布博文,报道称 OpenAI 宣布收购 Context.ai团队,后者是一家由 GV 支持的初创公司,以评估和分析 AI 模型见长。Context.ai的联合创始人 Henry Scott-Green(首席执行官)和 Alex Gamble(首席技术官)将加入 OpenAI,专注于研发模型评估工具。

来自主题: AI资讯
7860 点击    2025-04-16 10:58
Exa:给 AI Agent 的 “Bing API”

Exa:给 AI Agent 的 “Bing API”

Exa:给 AI Agent 的 “Bing API”

Agentic AI 的 3 要素是:tool use,memory 和 context,围绕这三个场景会出现 agent-native Infra 的机会。

来自主题: AI技术研报
7110 点击    2025-04-08 10:10
Manus带火的MCP,让BlenderMCP可以让Claude一句话自动化3D建模,网友:真·AI+应用

Manus带火的MCP,让BlenderMCP可以让Claude一句话自动化3D建模,网友:真·AI+应用

Manus带火的MCP,让BlenderMCP可以让Claude一句话自动化3D建模,网友:真·AI+应用

一句话提示,Claude自动化打开Blender将2D图片转为3D建模。背后关键还是最近大火的MCP(Model Context Protocol)——复刻Manus的重要诀窍。将这套协议和Blender打通,即可获得如上效果。该开源项目BlenderMCP,上线短短3天,GitHub标星已达3.8k。

来自主题: AI资讯
10025 点击    2025-03-15 13:32
你真的会用ICL吗?把ICL和IWL双重学习同时写进提示词试试 | DeepMind

你真的会用ICL吗?把ICL和IWL双重学习同时写进提示词试试 | DeepMind

你真的会用ICL吗?把ICL和IWL双重学习同时写进提示词试试 | DeepMind

大家对in-context learning(ICL)的能力可能已经很熟悉了,您通常会通过上下文示例就能快速让prompt适应新任务。然而,作为AI应用开发者,您是否思考过:为什么有时候精心设计的few-shot prompt会失效?为什么相同的prompt模式在不同场景下效果差异巨大?

来自主题: AI技术研报
5370 点击    2024-11-05 09:17
NeurIPS 2024 | 大模型的词表大小,同样适用于Scaling Law

NeurIPS 2024 | 大模型的词表大小,同样适用于Scaling Law

NeurIPS 2024 | 大模型的词表大小,同样适用于Scaling Law

本文是一篇发表在 NeurIPS 2024 上的论文,单位是香港大学、Sea AI Lab、Contextual AI 和俄亥俄州立大学。论文主要探讨了大型语言模型(LLMs)的词表大小对模型性能的影响。

来自主题: AI技术研报
6160 点击    2024-10-11 13:55
你以为的LLM上下文学习超能力,究竟来自哪里,ICL的内部机制如何 |最新发布

你以为的LLM上下文学习超能力,究竟来自哪里,ICL的内部机制如何 |最新发布

你以为的LLM上下文学习超能力,究竟来自哪里,ICL的内部机制如何 |最新发布

上下文学习(In-Context Learning, ICL)是指LLMs能够仅通过提示中给出的少量样例,就迅速掌握并执行新任务的能力。这种“超能力”让LLMs表现得像是一个"万能学习者",能够在各种场景下快速适应并产生高质量输出。然而,关于ICL的内部机制,学界一直存在争议。

来自主题: AI资讯
4697 点击    2024-09-11 10:17
第一个100%开源的MoE大模型,7B的参数,1B的推理成本

第一个100%开源的MoE大模型,7B的参数,1B的推理成本

第一个100%开源的MoE大模型,7B的参数,1B的推理成本

训练代码、中间 checkpoint、训练日志和训练数据都已经开源。

来自主题: AI技术研报
8222 点击    2024-09-05 22:02
ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

上下文学习 (in-context learning, 简写为 ICL) 已经在很多 LLM 有关的应用中展现了强大的能力,但是对其理论的分析仍然比较有限。人们依然试图理解为什么基于 Transformer 架构的 LLM 可以展现出 ICL 的能力。

来自主题: AI技术研报
4173 点击    2024-06-28 11:23
小模型如何进行上下文学习?字节跳动 & 华东师大联合提出自进化文本识别器

小模型如何进行上下文学习?字节跳动 & 华东师大联合提出自进化文本识别器

小模型如何进行上下文学习?字节跳动 & 华东师大联合提出自进化文本识别器

我们都知道,大语言模型(LLM)能够以一种无需模型微调的方式从少量示例中学习,这种方式被称为「上下文学习」(In-context Learning)。这种上下文学习现象目前只能在大模型上观察到。比如 GPT-4、Llama 等大模型在非常多的领域中都表现出了杰出的性能,但还是有很多场景受限于资源或者实时性要求较高,无法使用大模型。

来自主题: AI技术研报
3804 点击    2023-11-27 12:49