AI资讯新闻榜单内容搜索-训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 训练
OpenAI最大秘密,竟被中国研究者破解?复旦等惊人揭秘o1路线图

OpenAI最大秘密,竟被中国研究者破解?复旦等惊人揭秘o1路线图

OpenAI最大秘密,竟被中国研究者破解?复旦等惊人揭秘o1路线图

OpenAI o1和o3模型的秘密,竟传出被中国研究者「破解」?今天,复旦等机构的这篇论文引起了AI社区的强烈反响,他们从强化学习的角度,分析了实现o1的路线图,并总结了现有的「开源版o1」。

来自主题: AI技术研报
7355 点击    2025-01-05 22:13
多智能体强化学习算法评估Hard模式来了!浙大、南栖仙策联手推出

多智能体强化学习算法评估Hard模式来了!浙大、南栖仙策联手推出

多智能体强化学习算法评估Hard模式来了!浙大、南栖仙策联手推出

在人工智能领域,具有挑战性的模拟环境对于推动多智能体强化学习(MARL)领域的发展至关重要。在合作式多智能体强化学习环境中,大多数算法均通过星际争霸多智能体挑战(SMAC)作为实验环境来验证算法的收敛和样本利用率。

来自主题: AI技术研报
7404 点击    2025-01-05 20:51
揭秘OpenAI AI进化论

揭秘OpenAI AI进化论

揭秘OpenAI AI进化论

当你用正确的方式优化模型,给模型指明正确的方向,无论什么问题,它们都会倾尽全力去学习,去解决问题。如果你的愿景足够吸引人,如果你能创建一个人们愿意加入的公司,一个实践合理做法的组织,同时还能在生态系统中保持其地位,那么其他人会效仿你。尤其当你做得比他们更好时,他们会被迫改变行为,这种影响比你作为下属去和他们争论要更具说服力。

来自主题: AI资讯
3851 点击    2025-01-05 10:26
AI 医疗赛道最受关注的独角兽:5000万ARR、25亿估值,AI Scribe场景PMF已验证

AI 医疗赛道最受关注的独角兽:5000万ARR、25亿估值,AI Scribe场景PMF已验证

AI 医疗赛道最受关注的独角兽:5000万ARR、25亿估值,AI Scribe场景PMF已验证

在 LLM 落地场景中,医疗领域的应用开始展现出比较高的确定性,尤其是 AI scribe 产品能解决临床文档记录枯燥、耗时这一行业痛点。Abridge 是其中最有代表性的公司,训练了专用于临床文档的 ASR 和文本生成模型,能够替代 90% 左右的人工工作量。

来自主题: AI资讯
3078 点击    2025-01-04 15:54
全网都在扒的DeepSeek团队,是清北应届生撑起一片天

全网都在扒的DeepSeek团队,是清北应届生撑起一片天

全网都在扒的DeepSeek团队,是清北应届生撑起一片天

DeepSeek-v3大模型横空出世,以1/11算力训练出超过Llama 3的开源模型,震撼了整个AI圈。

来自主题: AI资讯
8335 点击    2025-01-04 15:15
破解大模型隐私防线,华科清华联手实现微调数据90%精准识别 | NeurIPS24

破解大模型隐私防线,华科清华联手实现微调数据90%精准识别 | NeurIPS24

破解大模型隐私防线,华科清华联手实现微调数据90%精准识别 | NeurIPS24

微调大模型的数据隐私可能泄露? 最近华科和清华的研究团队联合提出了一种成员推理攻击方法,能够有效地利用大模型强大的生成能力,通过自校正机制来检测给定文本是否属于大模型的微调数据集。

来自主题: AI技术研报
8212 点击    2025-01-04 14:57
Just keep scaling!思维链作者Jason Wei 40分钟讲座剖析LLM扩展范式

Just keep scaling!思维链作者Jason Wei 40分钟讲座剖析LLM扩展范式

Just keep scaling!思维链作者Jason Wei 40分钟讲座剖析LLM扩展范式

2023 年初,Jason Wei 加入了 OpenAI,参与了 ChatGPT 的构建以及 o1 等重大项目。他的工作使思维链提示、指令微调和涌现现象等技术和概念变得广为人知。

来自主题: AI资讯
6210 点击    2025-01-04 14:32
从2019年到现在,是时候重新审视Tokenization了

从2019年到现在,是时候重新审视Tokenization了

从2019年到现在,是时候重新审视Tokenization了

2019 年问世的 GPT-2,其 tokenizer 使用了 BPE 算法,这种算法至今仍很常见,但这种方式是最优的吗?来自 HuggingFace 的一篇文章给出了解释。

来自主题: AI技术研报
8301 点击    2025-01-04 14:20
Meta探索大模型记忆层,扩展至1280亿个参数,优于MoE

Meta探索大模型记忆层,扩展至1280亿个参数,优于MoE

Meta探索大模型记忆层,扩展至1280亿个参数,优于MoE

预训练语言模型通常在其参数中编码大量信息,并且随着规模的增加,它们可以更准确地回忆和使用这些信息。

来自主题: AI技术研报
7192 点击    2025-01-04 14:14
轻松进行动态图异常检测,南洋理工提出GeneralDyG

轻松进行动态图异常检测,南洋理工提出GeneralDyG

轻松进行动态图异常检测,南洋理工提出GeneralDyG

此项研究成果已被 AAAI 2025 录用。该论文的第一作者是南洋理工大学计算与数据科学学院 (CCDS) 的硕士生杨潇,师从苗春燕教授,主要研究方向是图神经网络。

来自主题: AI技术研报
7146 点击    2025-01-04 14:07