AI资讯新闻榜单内容搜索-GPT

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: GPT
史上最强生物数据库震撼登场!近10万亿token专为AI而生,联合英伟达打造生物版GPT!

史上最强生物数据库震撼登场!近10万亿token专为AI而生,联合英伟达打造生物版GPT!

史上最强生物数据库震撼登场!近10万亿token专为AI而生,联合英伟达打造生物版GPT!

近日,Basecamp Research宣布推出生物序列数据库BaseData™,包含超过9.2万亿个Token的基因组数据以及98亿条经过严格筛选与校对的蛋白质序列,其中许多来自公司所发现的超过100万个新物种。

来自主题: AI资讯
7871 点击    2025-06-18 18:57
Granola:ChatGPT、Notion 都入场的 AI 纪要,能真正沉淀工作流吗?

Granola:ChatGPT、Notion 都入场的 AI 纪要,能真正沉淀工作流吗?

Granola:ChatGPT、Notion 都入场的 AI 纪要,能真正沉淀工作流吗?

LLM 和 agent 最关键的能力之一就是基于 context 来准确完成用户的任务,而最真实、鲜活的 context 往往不在 Google doc 等文档中,而是存在人与人的对话中,纪要就承载着这一类高价值信息。

来自主题: AI资讯
6812 点击    2025-06-18 16:15
奥特曼声称ChatGPT单次查询仅耗电0.34瓦时,这个数据靠谱吗?

奥特曼声称ChatGPT单次查询仅耗电0.34瓦时,这个数据靠谱吗?

奥特曼声称ChatGPT单次查询仅耗电0.34瓦时,这个数据靠谱吗?

OpenAI披露ChatGPT单次查询能耗0.34瓦时,数据引发行业争议。 6月17日消息,OpenAI首席执行官山姆·奥特曼(Sam Altman)近日首次披露了ChatGPT查询的具体能耗数据。

来自主题: AI资讯
7139 点击    2025-06-18 10:57
微软已为Agent悄然调转船头,当大厂都在卷“通用Agent”

微软已为Agent悄然调转船头,当大厂都在卷“通用Agent”

微软已为Agent悄然调转船头,当大厂都在卷“通用Agent”

您有没有这样的体验?一天的工作里,您可能用GPTo3写了个方案,然后切换到Cursor或者Trae里写代码,接着又打开Notion或者飞书整理文档。每个工具都挺聪明,但它们彼此之间就像生活在平行宇宙——写方案的GPT不知道您后来写了什么代码,写代码的Cursor也不清楚您的整体规划是什么。

来自主题: AI技术研报
6280 点击    2025-06-18 10:36
谷歌被曝用 ChatGPT 训练 Gemini,Scale AI 否认

谷歌被曝用 ChatGPT 训练 Gemini,Scale AI 否认

谷歌被曝用 ChatGPT 训练 Gemini,Scale AI 否认

6 月 17 日消息,尽管谷歌拥有庞大的云计算业务和大量人才,但在生成式人工智能竞赛中常常被视为处于劣势的一方。

来自主题: AI资讯
5592 点击    2025-06-17 17:03
AI操作有了“紧急刹车”!通义&自动化所AI决策诊断模型,GUI智能体纠错正确率SOTA

AI操作有了“紧急刹车”!通义&自动化所AI决策诊断模型,GUI智能体纠错正确率SOTA

AI操作有了“紧急刹车”!通义&自动化所AI决策诊断模型,GUI智能体纠错正确率SOTA

GUI智能体总是出错, 甚至是不可逆的错误。 即使是像GPT-4o这样的顶级多模态大模型,也会因为缺乏常识而在执行GUI任务时犯错。在它即将执行错误决策时,需要有人提醒它出错了。

来自主题: AI资讯
8144 点击    2025-06-17 16:59
沉迷贪吃蛇,7B小模型竟变身「数学天才」!几何推理碾压GPT-4o

沉迷贪吃蛇,7B小模型竟变身「数学天才」!几何推理碾压GPT-4o

沉迷贪吃蛇,7B小模型竟变身「数学天才」!几何推理碾压GPT-4o

NVIDIA等研究团队提出了一种革命性的AI训练范式——视觉游戏学习ViGaL。通过让7B参数的多模态模型玩贪吃蛇和3D旋转等街机游戏,AI不仅掌握了游戏技巧,还培养出强大的跨领域推理能力,在数学、几何等复杂任务上击败GPT-4o等顶级模型。

来自主题: AI技术研报
5224 点击    2025-06-17 16:53
仅凭一篇博客,他成功入职OpenAI!核心技术或用于GPT-5训练

仅凭一篇博客,他成功入职OpenAI!核心技术或用于GPT-5训练

仅凭一篇博客,他成功入职OpenAI!核心技术或用于GPT-5训练

未中顶会,没有发表arXiv,一篇博客却成为OpenAI速通票。天才科学家Keller Jordan仅凭Muon优化器博客加入OpenAI。甚至,它可能被用于训练下一代超级模型GPT-5。

来自主题: AI资讯
7233 点击    2025-06-16 17:22
一个数据集,一年产稿7876篇!AI强力加持,垃圾论文海量爆发

一个数据集,一年产稿7876篇!AI强力加持,垃圾论文海量爆发

一个数据集,一年产稿7876篇!AI强力加持,垃圾论文海量爆发

当学术研究沦为「填空游戏」,利用美国NHANES公共数据集,结合AI工具如ChatGPT,研究者通过套用模板、排列变量,批量生产看似精美却质量堪忧的论文。背后不仅是技术的滥用,更是科研评价体系扭曲的缩影。

来自主题: AI资讯
7253 点击    2025-06-16 17:10