
史上最强生物数据库震撼登场!近10万亿token专为AI而生,联合英伟达打造生物版GPT!
史上最强生物数据库震撼登场!近10万亿token专为AI而生,联合英伟达打造生物版GPT!近日,Basecamp Research宣布推出生物序列数据库BaseData™,包含超过9.2万亿个Token的基因组数据以及98亿条经过严格筛选与校对的蛋白质序列,其中许多来自公司所发现的超过100万个新物种。
近日,Basecamp Research宣布推出生物序列数据库BaseData™,包含超过9.2万亿个Token的基因组数据以及98亿条经过严格筛选与校对的蛋白质序列,其中许多来自公司所发现的超过100万个新物种。
LLM 和 agent 最关键的能力之一就是基于 context 来准确完成用户的任务,而最真实、鲜活的 context 往往不在 Google doc 等文档中,而是存在人与人的对话中,纪要就承载着这一类高价值信息。
OpenAI披露ChatGPT单次查询能耗0.34瓦时,数据引发行业争议。 6月17日消息,OpenAI首席执行官山姆·奥特曼(Sam Altman)近日首次披露了ChatGPT查询的具体能耗数据。
您有没有这样的体验?一天的工作里,您可能用GPTo3写了个方案,然后切换到Cursor或者Trae里写代码,接着又打开Notion或者飞书整理文档。每个工具都挺聪明,但它们彼此之间就像生活在平行宇宙——写方案的GPT不知道您后来写了什么代码,写代码的Cursor也不清楚您的整体规划是什么。
6 月 17 日消息,尽管谷歌拥有庞大的云计算业务和大量人才,但在生成式人工智能竞赛中常常被视为处于劣势的一方。
GUI智能体总是出错, 甚至是不可逆的错误。 即使是像GPT-4o这样的顶级多模态大模型,也会因为缺乏常识而在执行GUI任务时犯错。在它即将执行错误决策时,需要有人提醒它出错了。
NVIDIA等研究团队提出了一种革命性的AI训练范式——视觉游戏学习ViGaL。通过让7B参数的多模态模型玩贪吃蛇和3D旋转等街机游戏,AI不仅掌握了游戏技巧,还培养出强大的跨领域推理能力,在数学、几何等复杂任务上击败GPT-4o等顶级模型。
未中顶会,没有发表arXiv,一篇博客却成为OpenAI速通票。天才科学家Keller Jordan仅凭Muon优化器博客加入OpenAI。甚至,它可能被用于训练下一代超级模型GPT-5。
当学术研究沦为「填空游戏」,利用美国NHANES公共数据集,结合AI工具如ChatGPT,研究者通过套用模板、排列变量,批量生产看似精美却质量堪忧的论文。背后不仅是技术的滥用,更是科研评价体系扭曲的缩影。
2025年,新药研发领域正迎来专属的“ChatGPT时刻”。