AI资讯新闻榜单内容搜索-Meta

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Meta
一文看尽Meta开源大礼包!全面覆盖图像分割、语音、文本、表征、材料发现、密码安全性等

一文看尽Meta开源大礼包!全面覆盖图像分割、语音、文本、表征、材料发现、密码安全性等

一文看尽Meta开源大礼包!全面覆盖图像分割、语音、文本、表征、材料发现、密码安全性等

Meta最近开源了多个AI项目,包括图像分割模型SAM 2.1、多模态语言模型Spirit LM、自学评估器和改进的跨语言句子编码器Mexma等,提升了AI在图像处理和语音识别领域的能力,进一步推动了AI研究的进展。

来自主题: AI技术研报
8457 点击    2024-11-27 16:50
Scaling Law百度最早提出?!OpenAI/Claude都受它启发,Ilya出现在致谢名单中

Scaling Law百度最早提出?!OpenAI/Claude都受它启发,Ilya出现在致谢名单中

Scaling Law百度最早提出?!OpenAI/Claude都受它启发,Ilya出现在致谢名单中

什么?Scaling Law最早是百度2017年提的?! Meta研究员翻出经典论文: 大多数人可能不知道,Scaling law原始研究来自2017年的百度,而非三年后(2020年)的OpenAI。

来自主题: AI资讯
5696 点击    2024-11-27 14:20
「学术版ChatGPT」登场!Ai2打造科研效率神器OpenScholar,让LLM帮你搞定文献综述

「学术版ChatGPT」登场!Ai2打造科研效率神器OpenScholar,让LLM帮你搞定文献综述

「学术版ChatGPT」登场!Ai2打造科研效率神器OpenScholar,让LLM帮你搞定文献综述

Ai2和华盛顿大学联合Meta、CMU、斯坦福等机构发布了最新的OpenScholar系统,使用检索增强的方法帮助科学家进行文献搜索和文献综述工作,而且做到了数据、代码、模型权重的全方位开源。

来自主题: AI技术研报
5233 点击    2024-11-26 14:05
指令跟随大比拼!Meta发布多轮多语言基准Multi-IF:覆盖8种语言,超4500种任务

指令跟随大比拼!Meta发布多轮多语言基准Multi-IF:覆盖8种语言,超4500种任务

指令跟随大比拼!Meta发布多轮多语言基准Multi-IF:覆盖8种语言,超4500种任务

Meta全新发布的基准Multi-IF涵盖八种语言、4501个三轮对话任务,全面揭示了当前LLM在复杂多轮、多语言场景中的挑战。所有模型在多轮对话中表现显著衰减,表现最佳的o1-preview模型在三轮对话的准确率从87.7%下降到70.7%;在非拉丁文字语言上,所有模型的表现显著弱于英语。

来自主题: AI技术研报
5792 点击    2024-11-25 15:45
小学二年级数学水平,跟着这篇博客也能理解LLM运行原理

小学二年级数学水平,跟着这篇博客也能理解LLM运行原理

小学二年级数学水平,跟着这篇博客也能理解LLM运行原理

最近,Meta Gen AI 部门的数据科学总监 Rohit Patel 听到了你的心声。他用加法和乘法 —— 小学二年级的数学知识,深入浅出地解析了大模型的基础原理。

来自主题: AI资讯
5478 点击    2024-11-25 15:24
首个可保留情感的音频LLM!Meta重磅开源7B-Spirit LM,一网打尽「音频+文本」多模态任务

首个可保留情感的音频LLM!Meta重磅开源7B-Spirit LM,一网打尽「音频+文本」多模态任务

首个可保留情感的音频LLM!Meta重磅开源7B-Spirit LM,一网打尽「音频+文本」多模态任务

Meta最近开源了一个7B尺寸的Spirit LM的多模态语言模型,能够理解和生成语音及文本,可以非常自然地在两种模式间转换,不仅能处理基本的语音转文本和文本转语音任务,还能捕捉和再现语音中的情感和风格。

来自主题: AI技术研报
5870 点击    2024-11-22 14:41
AI搜索战争:子弹飞到哪里了?

AI搜索战争:子弹飞到哪里了?

AI搜索战争:子弹飞到哪里了?

10月28日,The Information报道称,Meta正在研发自己的“AI驱动搜索引擎”,以减少对谷歌和微软Bing搜索的依赖。Meta的搜索,将通过生成式AI对用户输入的关键词或者prompt进行摘要和总结。

来自主题: AI资讯
5575 点击    2024-11-18 09:41
自一致性首选项优化SCPO,让LLM多次回答同一个问题,选输出频率最高的答案 |Meta最新

自一致性首选项优化SCPO,让LLM多次回答同一个问题,选输出频率最高的答案 |Meta最新

自一致性首选项优化SCPO,让LLM多次回答同一个问题,选输出频率最高的答案 |Meta最新

传统的训练方法通常依赖于大量人工标注的数据和外部奖励模型,这些方法往往受到成本、质量控制和泛化能力的限制。因此,如何减少对人工标注的依赖,并提高模型在复杂推理任务中的表现,成为了当前的主要挑战之一。

来自主题: AI技术研报
6679 点击    2024-11-14 14:42