AI资讯新闻榜单内容搜索-GPT-3

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: GPT-3
吴恩达:别光盯着GPT-5,用GPT-4做个智能体可能提前达到GPT-5的效果

吴恩达:别光盯着GPT-5,用GPT-4做个智能体可能提前达到GPT-5的效果

吴恩达:别光盯着GPT-5,用GPT-4做个智能体可能提前达到GPT-5的效果

AI 智能体是去年很火的一个话题,但是 AI 智能体到底有多大的潜力,很多人可能没有概念。 最近,斯坦福大学教授吴恩达在演讲中提到,他们发现,基于 GPT-3.5 构建的智能体工作流在应用中表现比 GPT-4 要好。当然,基于 GPT-4 构建的智能体工作流效果更好。由此看来,AI 智能体工作流将在今年推动人工智能取得巨大进步,甚至可能超过下一代基础模型。这是一个值得所有人关注的趋势。

来自主题: AI技术研报
7986 点击    2024-03-31 13:54
下一代Windows系统曝光:基于GPT-4V,Agent跨应用调度,代号UFO

下一代Windows系统曝光:基于GPT-4V,Agent跨应用调度,代号UFO

下一代Windows系统曝光:基于GPT-4V,Agent跨应用调度,代号UFO

微软首个为Windows而设的智能体(Agent) 亮相:基于GPT-4V,一句话就可以在多个应用中无缝切换,完成复杂任务。整个过程无需人为干预,其执行成功率和效率是GPT-4的两倍,GPT-3.5的四倍。

来自主题: AI技术研报
9703 点击    2024-02-17 12:25
国内首个!最火的MoE大模型APP来了,免费下载,人人可玩

国内首个!最火的MoE大模型APP来了,免费下载,人人可玩

国内首个!最火的MoE大模型APP来了,免费下载,人人可玩

MoE(混合专家)作为当下最顶尖、最前沿的大模型技术方向,MoE能在不增加推理成本的前提下,为大模型带来性能激增。比如,在MoE的加持之下,GPT-4带来的用户体验较之GPT-3.5有着革命性的飞升。

来自主题: AI资讯
9971 点击    2024-02-06 17:53
打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉

打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉

打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉

2023 年 12 月,首个开源 MoE 大模型 Mixtral 8×7B 发布,在多种基准测试中,其表现近乎超越了 GPT-3.5 和 LLaMA 2 70B,而推理开销仅相当于 12B 左右的稠密模型。为进一步提升模型性能,稠密 LLM 常由于其参数规模急剧扩张而面临严峻的训练成本。

来自主题: AI技术研报
10199 点击    2024-02-04 13:59
GPT-4不偷懒了!OpenAI连甩五个大模型,价格最低打两折

GPT-4不偷懒了!OpenAI连甩五个大模型,价格最低打两折

GPT-4不偷懒了!OpenAI连甩五个大模型,价格最低打两折

全新GPT-4 Turbo预览模型据介绍,该模型能更完整彻底地完成代码生成等任务,以减少模型未完成任务的“惰性”情况。

来自主题: AI技术研报
9728 点击    2024-01-27 10:47
谷歌2024新年目标曝光:一边做地表最强AI,一边裁更多员工

谷歌2024新年目标曝光:一边做地表最强AI,一边裁更多员工

谷歌2024新年目标曝光:一边做地表最强AI,一边裁更多员工

外媒曝出谷歌2024年公司目标:做全球最强AI,同时要再裁更多的员工。网友吐槽,CEO拿巨额工资,产品无故取消,却只知道开人。

来自主题: AI技术研报
5636 点击    2024-01-22 15:14
开源模型新纪录:超越Mixtral 8x7B Instruct的模型来了

开源模型新纪录:超越Mixtral 8x7B Instruct的模型来了

开源模型新纪录:超越Mixtral 8x7B Instruct的模型来了

从 Llama、Llama 2 到 Mixtral 8x7B,开源模型的性能记录一直在被刷新。由于 Mistral 8x7B 在大多数基准测试中都优于 Llama 2 70B 和 GPT-3.5,因此它也被认为是一种「非常接近 GPT-4」的开源选项。

来自主题: AI技术研报
6985 点击    2024-01-16 14:18