AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
NeurIPS 2024|杜克大学&谷歌提出SLED解码框架,无需外部数据与额外训练,有效缓解大语言模型幻觉,提高事实准确性

NeurIPS 2024|杜克大学&谷歌提出SLED解码框架,无需外部数据与额外训练,有效缓解大语言模型幻觉,提高事实准确性

NeurIPS 2024|杜克大学&谷歌提出SLED解码框架,无需外部数据与额外训练,有效缓解大语言模型幻觉,提高事实准确性

大语言模型(LLM)在各种任务上展示了卓越的性能。然而,受到幻觉(hallucination)的影响,LLM 生成的内容有时会出现错误或与事实不符,这限制了其在实际应用中的可靠性。

来自主题: AI技术研报
9724 点击    2024-12-02 14:27
微软发明全新「LLM语言」,AI智能体交互效率翻倍!

微软发明全新「LLM语言」,AI智能体交互效率翻倍!

微软发明全新「LLM语言」,AI智能体交互效率翻倍!

对于LLM来说,人类语言可能不是最好的交流媒介,正如《星战》中的机器人有自己的一套语言,近日,来自微软的研究人员改进了智能体间的交互方式,使模型的通信速度翻倍且不损失精度。

来自主题: AI技术研报
6470 点击    2024-12-01 15:30
AI 教育赛道万字解析:代表性产品有哪些?机会在哪里?未来可能性?

AI 教育赛道万字解析:代表性产品有哪些?机会在哪里?未来可能性?

AI 教育赛道万字解析:代表性产品有哪些?机会在哪里?未来可能性?

教育一直被认为是会被LLM改变最大的行业之一。ChatGPT 的使用场景中,教育占据了很大比重,其用量常随开学和假期规律波动。而 Andrej Karpathy 也选择了教育作为他的创业方向。人们都期待能够有全能的AI Tutor,因材施教,提供给每个人最好、最个性化的教育。

来自主题: AI技术研报
7455 点击    2024-12-01 12:05
如何使用OpenAI fine-tuning(微调)训练属于自己的专有模型?

如何使用OpenAI fine-tuning(微调)训练属于自己的专有模型?

如何使用OpenAI fine-tuning(微调)训练属于自己的专有模型?

Fine-tuning理论上很复杂,但是OpenAI把这个功能完善到任何一个人看了就能做出来的程度。我们先从原理入手,你看这张图,左边是Pre-trained LLM (预训练大模型模型),也就是像ChatGPT这样的模型;右边是Fine-tuned LLM (微调过的语言大模型),中间就是进行微调的过程,它需要我们提供一些「ChatGPT提供不了但是我们需要的东西」。

来自主题: AI技术研报
10138 点击    2024-12-01 10:56
GPT-5涌现能力可预测?UC伯克利仅使用当前模型检查点预测未来模型

GPT-5涌现能力可预测?UC伯克利仅使用当前模型检查点预测未来模型

GPT-5涌现能力可预测?UC伯克利仅使用当前模型检查点预测未来模型

LLM 规模扩展的一个根本性挑战是缺乏对涌现能力的理解。特别是,语言模型预训练损失是高度可预测的。然而,下游能力的可预测性要差得多,有时甚至会出现涌现跳跃(emergent jump),这使得预测未来模型的能力变得具有挑战性。

来自主题: AI技术研报
9059 点击    2024-11-30 16:51
清华新VLA框架加速破解具身智能止步实验室“魔咒”,LLM开销节省4-6倍 | NeurIPS'24

清华新VLA框架加速破解具身智能止步实验室“魔咒”,LLM开销节省4-6倍 | NeurIPS'24

清华新VLA框架加速破解具身智能止步实验室“魔咒”,LLM开销节省4-6倍 | NeurIPS'24

计算、存储消耗高,机器人使用多模态模型的障碍被解决了! 来自清华大学的研究者们设计了DeeR-VLA框架,一种适用于VLA的“动态推理”框架,能将LLM部分的相关计算、内存开销平均降低4-6倍。

来自主题: AI技术研报
7433 点击    2024-11-30 16:29
深度 |2024 总结:AI Agent 元年,LLM 操作系统前夜

深度 |2024 总结:AI Agent 元年,LLM 操作系统前夜

深度 |2024 总结:AI Agent 元年,LLM 操作系统前夜

2024 年即将结束,今年行业对 AI 的论调也基本尘埃落定.相比 2023 年的多个重磅发布,2024 年是模型能力的小年,但 AI Agent 却是实在的大年。

来自主题: AI资讯
8129 点击    2024-11-30 10:36
反正都是生成式模型,人和AI又有啥区别?|智能渐近线

反正都是生成式模型,人和AI又有啥区别?|智能渐近线

反正都是生成式模型,人和AI又有啥区别?|智能渐近线

当前,生成式AI正席卷整个社会,大语言模型(LLMs)在文本(ChatGPT)和图像(DALL-E)生成方面取得了令人惊叹的成就,仅仅依赖零星几个提示词,它们就能生成超出预期的内容

来自主题: AI技术研报
6900 点击    2024-11-30 10:21
惊天反转!LeCun竟与奥特曼达成共识:承认AGI 5到10年降临,但LLM注定死路一条

惊天反转!LeCun竟与奥特曼达成共识:承认AGI 5到10年降临,但LLM注定死路一条

惊天反转!LeCun竟与奥特曼达成共识:承认AGI 5到10年降临,但LLM注定死路一条

就在刚刚,LeCun一反常态地表示:AGI离我们只有5到10年了!这个说法,跟之前的「永远差着10到20年」大相径庭。当然,他还是把LLM打为死路,坚信自己的JEPA路线。至此,各位大佬们的口径是对齐了,有眼力见儿的投资人该继续投钱了。

来自主题: AI技术研报
6076 点击    2024-11-29 15:08