AI资讯新闻榜单内容搜索-Phi

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Phi
全球247亿美元豪赌GenAI,疯狂入局AI成高风险博弈?

全球247亿美元豪赌GenAI,疯狂入局AI成高风险博弈?

全球247亿美元豪赌GenAI,疯狂入局AI成高风险博弈?

面对GenAI的技术浪潮,很多人都会在不断迭代更新的技术中逐渐迷失。站在潮头的Sapphire、Emergence、Menlo等风投公司,又会如何看待这场AI变局的现状与走向?

来自主题: AI资讯
8626 点击    2024-07-10 18:02
树莓派上部署RAG!微软Phi-3技术报告揭示「小而美」模型如何诞生

树莓派上部署RAG!微软Phi-3技术报告揭示「小而美」模型如何诞生

树莓派上部署RAG!微软Phi-3技术报告揭示「小而美」模型如何诞生

Build大会召开两周之后,微软更新了Phi-3系列模型的技术报告。不仅加入最新的基准测试结果,而且对小模型、高性能的实现机制做出了适当的揭示。

来自主题: AI技术研报
9635 点击    2024-06-17 21:49
开源模型进展盘点:最新Mixtral、Llama 3、Phi-3、OpenELM到底有多好?

开源模型进展盘点:最新Mixtral、Llama 3、Phi-3、OpenELM到底有多好?

开源模型进展盘点:最新Mixtral、Llama 3、Phi-3、OpenELM到底有多好?

深度学习领域知名研究者、Lightning AI 的首席人工智能教育者 Sebastian Raschka 对 AI 大模型有着深刻的洞察,也会经常把一些观察的结果写成博客。在一篇 5 月中发布的博客中,他盘点分析了 4 月份发布的四个主要新模型:Mixtral、Meta AI 的 Llama 3、微软的 Phi-3 和苹果的 OpenELM。

来自主题: AI技术研报
8755 点击    2024-06-02 14:42
手机可跑,3.8B参数量超越GPT-3.5!微软发布Phi-3技术报告:秘密武器是洗干净数据

手机可跑,3.8B参数量超越GPT-3.5!微软发布Phi-3技术报告:秘密武器是洗干净数据

手机可跑,3.8B参数量超越GPT-3.5!微软发布Phi-3技术报告:秘密武器是洗干净数据

过去几年,借助Scaling Laws的魔力,预训练的数据集不断增大,使得大模型的参数量也可以越做越大,从五年前的数十亿参数已经成长到今天的万亿级,在各个自然语言处理任务上的性能也越来越好。

来自主题: AI技术研报
10138 点击    2024-05-06 21:36
LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍

LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍

LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍

大型语言模型(LLM)往往会追求更长的「上下文窗口」,但由于微调成本高、长文本稀缺以及新token位置引入的灾难值(catastrophic values)等问题,目前模型的上下文窗口大多不超过128k个token

来自主题: AI技术研报
7568 点击    2024-04-29 20:31
微软发布Phi-3,性能超Llama-3,可手机端运行

微软发布Phi-3,性能超Llama-3,可手机端运行

微软发布Phi-3,性能超Llama-3,可手机端运行

Llama-3 刚发布没多久,竞争对手就来了,而且是可以在手机上运行的小体量模型。

来自主题: AI资讯
8297 点击    2024-04-24 10:41