AI资讯新闻榜单内容搜索-3

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 3
Unsloth x Qwen2,提速47.32%,节省39.13%显存,最少仅需8.43GB显存

Unsloth x Qwen2,提速47.32%,节省39.13%显存,最少仅需8.43GB显存

Unsloth x Qwen2,提速47.32%,节省39.13%显存,最少仅需8.43GB显存

在上一篇文章「Unsloth微调Llama3-8B,提速44.35%,节省42.58%显存,最少仅需7.75GB显存」中,我们介绍了Unsloth,这是一个大模型训练加速和显存高效的训练框架,我们已将其整合到Firefly训练框架中,并且对Llama3-8B的训练进行了测试,Unsloth可大幅提升训练速度和减少显存占用。

来自主题: AI技术研报
4953 点击    2024-05-08 12:21
前特斯拉Optimus科学家跳槽HF,直接开源了一个机器人代码库

前特斯拉Optimus科学家跳槽HF,直接开源了一个机器人代码库

前特斯拉Optimus科学家跳槽HF,直接开源了一个机器人代码库

今年 3 月,以构建大型开源社区而闻名的 AI 初创公司 Hugging Face,挖角前特斯拉科学家 Remi Cadene 来领导一个新的开源机器人项目 ——LeRobot,引起了轰动。

来自主题: AI技术研报
7948 点击    2024-05-08 11:05
一个小技巧,解锁ChatGPT「预测未来」?

一个小技巧,解锁ChatGPT「预测未来」?

一个小技巧,解锁ChatGPT「预测未来」?

如今,AI进步的速度,已经超出了我们对它用途的理解。

来自主题: AI技术研报
8636 点击    2024-05-08 10:56
推理超越 Llama3!面壁Ultra对齐助推开源大模型「理科状元」

推理超越 Llama3!面壁Ultra对齐助推开源大模型「理科状元」

推理超越 Llama3!面壁Ultra对齐助推开源大模型「理科状元」

两周前,OpenBMB开源社区联合面壁智能发布领先的开源大模型「Eurux-8x22B 」。相比口碑之作 Llama3-70B,Eurux-8x22B 发布时间更早,综合性能相当,尤其是拥有更强的推理性能——刷新开源大模型推理性能 SOTA,堪称开源大模型中「理科状元」。

来自主题: AI技术研报
9642 点击    2024-05-07 22:38
斯坦福20亿参数端测多模态AI Agent模型大升级,手机汽车机器人都能用

斯坦福20亿参数端测多模态AI Agent模型大升级,手机汽车机器人都能用

斯坦福20亿参数端测多模态AI Agent模型大升级,手机汽车机器人都能用

全球首个超小型多模态AI Agent模型Octopus V3,来自斯坦福大学的NEXA AI团队,让Agent更加智能、快速、能耗及成本降低。

来自主题: AI技术研报
4851 点击    2024-05-07 18:12
手机可跑,3.8B参数量超越GPT-3.5!微软发布Phi-3技术报告:秘密武器是洗干净数据

手机可跑,3.8B参数量超越GPT-3.5!微软发布Phi-3技术报告:秘密武器是洗干净数据

手机可跑,3.8B参数量超越GPT-3.5!微软发布Phi-3技术报告:秘密武器是洗干净数据

过去几年,借助Scaling Laws的魔力,预训练的数据集不断增大,使得大模型的参数量也可以越做越大,从五年前的数十亿参数已经成长到今天的万亿级,在各个自然语言处理任务上的性能也越来越好。

来自主题: AI技术研报
11358 点击    2024-05-06 21:36
硬核解决Sora的物理bug!美国四所顶尖高校联合发布:给视频生成器装个物理引擎

硬核解决Sora的物理bug!美国四所顶尖高校联合发布:给视频生成器装个物理引擎

硬核解决Sora的物理bug!美国四所顶尖高校联合发布:给视频生成器装个物理引擎

Sora刚发布后没多久,火眼金睛的网友们就发现了不少bug,比如模型对物理世界知之甚少,小狗在走路的时候,两条前腿就出现了交错问题,让人非常出戏。 对于生成视频的真实感来说,物体的交互非常重要,但目前来说,合成真实3D物体在交互中的动态行为仍然非常困难。

来自主题: AI技术研报
9686 点击    2024-05-06 21:28
AI围剿创意产业!1/3翻译和1/4插画师或将失业

AI围剿创意产业!1/3翻译和1/4插画师或将失业

AI围剿创意产业!1/3翻译和1/4插画师或将失业

近日,来自英国最大的创作者工会SoA公布了一项生成式AI对创意类职业的影响的调查报告。

来自主题: AI技术研报
7698 点击    2024-05-06 21:20
58行代码把Llama 3扩展到100万上下文,任何微调版都适用

58行代码把Llama 3扩展到100万上下文,任何微调版都适用

58行代码把Llama 3扩展到100万上下文,任何微调版都适用

堂堂开源之王Llama 3,原版上下文窗口居然只有……8k,让到嘴边的一句“真香”又咽回去了。

来自主题: AI资讯
10453 点击    2024-05-06 20:51