AI资讯新闻榜单内容搜索-Block

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Block
从兼职工程师直接跳到CTO,他用两个月让一款 Agent 干掉60%复杂工作并放话:“代码质量与产品成功没有直接关系”!

从兼职工程师直接跳到CTO,他用两个月让一款 Agent 干掉60%复杂工作并放话:“代码质量与产品成功没有直接关系”!

从兼职工程师直接跳到CTO,他用两个月让一款 Agent 干掉60%复杂工作并放话:“代码质量与产品成功没有直接关系”!

在 AI 与自动化方面,Block 在 2025 年初推出了一个名为 “Goose” 的开源 AI Agent 框架。Goose 的设计初衷是:将大型语言模型输出与实际系统行为(如读取/写入文件、运行测试、自动化工作流)连接起来,从而不仅让模型能“聊”而且能“干活“。

来自主题: AI资讯
6676 点击    2025-10-31 14:57
刚刚,英伟达新模型上线!4B推理狂飙53倍,全新注意力架构超越Mamba 2

刚刚,英伟达新模型上线!4B推理狂飙53倍,全新注意力架构超越Mamba 2

刚刚,英伟达新模型上线!4B推理狂飙53倍,全新注意力架构超越Mamba 2

Jet-Nemotron是英伟达最新推出的小模型系列(2B/4B),由全华人团队打造。其核心创新在于提出后神经架构搜索(PostNAS)与新型线性注意力模块JetBlock,实现了从预训练Transformer出发的高效架构优化。

来自主题: AI技术研报
7444 点击    2025-08-26 19:34
速递| 下一代十亿级AI创意藏于系统提示词,Superblocks完成A轮融资2300万美元

速递| 下一代十亿级AI创意藏于系统提示词,Superblocks完成A轮融资2300万美元

速递| 下一代十亿级AI创意藏于系统提示词,Superblocks完成A轮融资2300万美元

企业级低代码开发平台Superblocks 的 CEO 布拉德·梅内塞斯认为,下一批价值十亿美元的创业点子几乎就藏在眼前:现有 AI 独角兽企业所使用的系统提示词中。

来自主题: AI资讯
7935 点击    2025-06-08 15:25
华为中科大联创大模型低比特量化算法,1‰数据实现昇腾无损压缩7倍

华为中科大联创大模型低比特量化算法,1‰数据实现昇腾无损压缩7倍

华为中科大联创大模型低比特量化算法,1‰数据实现昇腾无损压缩7倍

大模型巨无霸体量,让端侧部署望而却步?华为联手中科大提出CBQ新方案,仅用0.1%的训练数据实现7倍压缩率,保留99%精度。

来自主题: AI技术研报
8900 点击    2025-05-26 15:21
爆火Block Diffusion引发LLM架构变革?自回归+扩散模型完美结合 | ICLR 2025

爆火Block Diffusion引发LLM架构变革?自回归+扩散模型完美结合 | ICLR 2025

爆火Block Diffusion引发LLM架构变革?自回归+扩散模型完美结合 | ICLR 2025

块离散去噪扩散语言模型(BD3-LMs)结合自回归模型和扩散模型的优势,解决了现有扩散模型生成长度受限、推理效率低和生成质量低的问题。通过块状扩散实现任意长度生成,利用键值缓存提升效率,并通过优化噪声调度降低训练方差,达到扩散模型中最高的预测准确性,同时生成效率和质量优于其他扩散模型。

来自主题: AI技术研报
10047 点击    2025-03-25 10:09
红杉资本2025 AI展望 - AI in 2025

红杉资本2025 AI展望 - AI in 2025

红杉资本2025 AI展望 - AI in 2025

Sequoia Capital(红杉资本) 最近发表了一篇文章《AI in 2025: Building Blocks Firmly in Place》,对2025年的AI发展趋势做了三个预测,一定程度上反映了资本对于大模型方向一些定性判断。

来自主题: AI技术研报
11828 点击    2024-12-15 20:19
简化版Transformer来了,网友:年度论文

简化版Transformer来了,网友:年度论文

简化版Transformer来了,网友:年度论文

Transformer 架构可以说是近期深度学习领域许多成功案例背后的主力军。构建深度 Transformer 架构的一种简单方法是将多个相同的 Transformer 「块」(block)依次堆叠起来,但每个「块」都比较复杂,由许多不同的组件组成,需要以特定的排列组合才能实现良好的性能。

来自主题: AI技术研报
7341 点击    2023-11-28 14:44