
微软原WizardLM团队:代码大模型WarriorCoder,性能新SOTA
微软原WizardLM团队:代码大模型WarriorCoder,性能新SOTA近年来,大型语言模型(LLMs)在代码相关的任务上展现了惊人的表现,各种代码大模型层出不穷。这些成功的案例表明,在大规模代码数据上进行预训练可以显著提升模型的核心编程能力。
近年来,大型语言模型(LLMs)在代码相关的任务上展现了惊人的表现,各种代码大模型层出不穷。这些成功的案例表明,在大规模代码数据上进行预训练可以显著提升模型的核心编程能力。
Phi-4系列模型上新了!56亿参数Phi-4-multimodal集语音、视觉、文本多模态于一体,读图推理性能碾压GPT-4o;另一款38亿参数Phi-4-mini在推理、数学、编程等任务中超越了参数更大的LLM,支持128K token上下文。
动辄百亿、千亿参数的大模型正在一路狂奔,但「小而美」的模型也在闪闪发光。
谷歌Gemini 2.0代码助手免费,每月18万次代码补全,支持超大上下文窗口。微软Copilot语音与深度思考功能,同样免费!OpenAI也免费推出了GPT-4o mini高级语音模式。
2月26日消息,据知情人士透露,作为OpenAI的最大支持者,微软最近取消了部分AI数据中心的租约,这可能反映出其对于“过度建设AI算力”的担忧。自那以来,微软股价持续走低,相关公司也受到拖累,科技股被抛售。
本文深入解析一项开创性研究——"Logic-RL: Unleashing LLM Reasoning with Rule-Based Reinforcement Learning",该研究通过基于规则的强化学习技术显著提升了语言模型的推理能力。微软亚洲的研究团队受DeepSeek-R1成功经验的启发,利用结构化的逻辑谜题作为训练场,为模型创建了一个可以系统学习和改进推理技能的环境。
DeepSeek开源第二弹如期而至。这一次,他们把MoE模型内核库开源了,支持FP8专为Hopper GPU设计,低延迟超高速训练推理。
只刷逻辑益智题,竟能让 AI 数学竞赛水平大幅提升?
Clay 集成了75+ 数据提供商(如 LinkedIn、Clearbit、Salesforce),并内置 AI Agent 进行客户研究、销售数据充实和个性化营销。通过无代码/低代码方式,用户可以拖拽式操作进行数据整合、自动化外联和个性化营销,提高业务增长效率。
OpenAI与微软的关系出现严重裂痕,主要原因是微软开始开发自己的大型语言模型,并聘请了Mustafa Suleyman,并且OpenAI首次使用非微软的数据中心。