关税刷屏的一周,AI圈也暗流涌动
创始人
2025-04-07 12:22:34
0

在关税刷屏的那一周,AI 圈仿佛也被一股暗流所笼罩。一方面,关税政策的变动引发了全球经济的连锁反应,这让 AI 企业不得不重新审视市场布局和战略规划。它们深知,经济环境的变化可能会对研发投入、产品销售等方面产生深远影响。另一方面,AI 技术本身却在悄然进步,各大研究机构和企业纷纷推出新的算法和模型,试图在这个动荡的时期抢占先机。仿佛在关税的喧嚣背后,AI 圈正以其独特的节奏和力量,默默积蓄着变革的力量,等待着新的机遇和挑战的到来。


本周全球被关税议题占据头条,但科技界的目光却聚焦在AI领域的密集动作上。


周末,Meta深夜突袭发布Llama 4系列,号称“原生多模态+千万级上下文窗口”,并首次披露单卡H100可运行的轻量化版本。此前OpenAI则宣布O3和O4-mini模型即将在几周内上线,同时确认GPT-5因技术整合和算力部署问题推迟数月。


DeepSeek则与清华大学的研究团队本周联合发布了一篇关于推理时Scaling的新论文,提出了一种名为自我原则点评调优(SPCT)的学习方法,并构建了DeepSeek-GRM系列模型。结合元奖励模型实现推理时扩展,性能接近671B大模型,暗示DeepSeek R2临近。


Meta强势推出Llama 4,多模态与超长上下文成亮点


周六,Meta正式发布了Llama 4系列模型,Llama 4全系采用混合专家(MoE)架构,并实现了原生多模态训练,彻底告别了Llama 3纯文本模型的时代。此次发布的模型包括:


Llama 4 Scout(17B 激活参数,109B 总参数量,支持 1000 万+ Token 上下文窗口,可在单张 H100 GPU 上运行);


Llama 4 Maverick(17B 激活参数,400B 总参数量,上下文窗口 100 万+,性能优于 GPT-4o 和 Gemini 2.0 Flash);


以及强大的 Llama 4 Behemoth 预览(288B 激活参数,2 万亿总参数量,训练使用 32000 块 GPU 和 30 万亿多模态 Token)。


此次公布的Llama 4 Maverick 和 Llama 4 Scout 将是开源软件。然而,Llama 4 的新许可证对使用有一定限制,例如月活用户超 7 亿的公司需申请特殊许可,且使用时需遵守多项品牌和归属要求。


前kaggle总裁,fast AI 创始人Jeremy Howard表示,虽然感谢开源,但Llama 4 Scout 和 Maverick 都是大型 MoE 模型,即使量化后也无法在消费级 GPU 上运行,这对开源社区的可及性来说是个不小的损失。



Meta强调,Llama 4 Scout 和 Llama 4 Maverick 是其“迄今为止最先进的型号”,也是“同类产品中多模态性最好的版本”。


Scout亮点:速度极快,原生支持多模态,拥有业界领先的 1000 万+ Token 多模态上下文窗口(相当于处理 20 多个小时的视频),并且能在单张 H100 GPU 上运行(Int4 量化后)。


Maverick性能:在多个主流基准测试中击败了 GPT-4o 和 Gemini 2.0 Flash,推理和编码能力与新发布的 DeepSeek v3 相当,但激活参数量不到后者一半。


X网友也对Scout模型的性能感到震惊,尤其是其在单GPU上运行并支持超长上下文窗口的能力。



最令人瞩目的是Llama 4 Behemoth。目前Behemoth仍处训练中,不过Meta将其定位为“世界上最智能的 LLM 之一”。这个拥有288B激活参数和2万亿总参数量的“巨兽”,在32000块GPU上训练了30万亿多模态Token,展现了Meta在AI领域的雄厚实力。


有X网友指出了Behemoth训练的性能潜力,强调了它在阶段就已经表现出超越多个最高级模型的能力,例如Claude 3.7 和Gemini 2.0 Pro。



还有X网友调侃了 Meta 的“烧钱”策略,同时对 Llama 4 的参数规模表示惊讶。



此前《The Information》周五报道称,在投资者向大型科技公司施压,要求其展示投资回报的情况下,Meta 计划今年投入高达650 亿美元来扩展其 AI 基础设施。


Open AI确认O3和O4-mini即将上线,GPT-5免费策略引轰动


在Llama 4发布的同时,OpenAI首席执行官Sam Altman则在社交媒体上确认,O3和O4-mini将在未来几周内发布,而GPT-5则将在未来几个月与公众见面。



尽管没有更多关于o3和o4mini的细节内容,但是Altman表示,OpenAI在很多方面真正改进了o3模型,一定会让用户大为满意。



实际上GPT-5的功能和发布时间才是市场关注的重点。据Altman透露,GPT-5将整合语音、Canvas、搜索、Deep Research等多项功能,成为OpenAI统一模型战略的核心。


这意味着GPT-5将不再是一个单一的模型,而是一个集成了多种工具和功能的综合系统。通过这种整合,GPT-5将能够自主使用工具,判断何时需要深入思考、何时可以快速响应,从而胜任各类复杂任务。OpenAI的这一举措旨在简化内部模型和产品体系,让AI真正实现随开随用的便捷性。


更令人兴奋的是,GPT-5将对免费用户开放无限使用权限,而付费用户则能体验到更高智力水平的版本。此前,奥特曼在和硅谷知名分析师Ben Thompson的深度对谈中,表示因为DeepSeek 的影响, GPT-5将考虑让用户免费使用。


不过对于GPT-5的发布时间反复推迟,有网友做出了下面这个时间表来调侃。



DeepSeek携手清华发布新论文


DeepSeek与清华大学的研究团队本周联合发布了一篇关于推理时Scaling的新论文,提出了一种名为自我原则点评调优(Self-Principled Critique Tuning,简称SPCT)的学习方法,并构建了DeepSeek-GRM系列模型。这一方法通过在线强化学习(RL)动态生成评判原则和点评内容,显著提升了通用奖励建模(RM)在推理阶段的可扩展性,并引入元奖励模型(meta RM)进一步优化扩展性能。



SPCT方法的核心在于将“原则”从传统的理解过程转变为奖励生成的一部分,使模型能够根据输入问题及其回答内容动态生成高质量的原则和点评。这种方法包括两个阶段:


拒绝式微调(rejective fine-tuning)作为冷启动阶段,帮助模型适应不同输入类型;


基于规则的在线强化学习(rule-based online RL)则进一步优化生成内容,提升奖励质量和推理扩展性。


为了优化投票过程,研究团队引入了元奖励模型(meta RM)。该模型通过判断生成原则和评论的正确性,过滤掉低质量样本,从而提升最终输出的准确性和可靠性。



实验结果显示,DeepSeek-GRM-27B在多个RM基准测试中显著优于现有方法和模型,尤其是在推理时扩展性方面表现出色。通过增加推理计算资源,DeepSeek-GRM-27B展现了强大的性能提升潜力,证明了推理阶段扩展策略的优势。


这一成果不仅推动了通用奖励建模的发展,也为AI模型在复杂任务中的应用提供了新的技术路径,甚至可能在DeepSeek R2上能看到该成果的展示。


有海外论坛网友调侃道,DeepSeek一贯是“论文后发模型”的节奏,竞争对手Llama-4可能因此受压。



本文来自微信公众号:硬AI,作者:鲍亦龙

相关内容

热门资讯

长征五号B遥一运载火箭顺利通过... 2020年1月19日,长征五号B遥一运载火箭顺利通过了航天科技集团有限公司在北京组织的出厂评审。目前...
9所本科高校获教育部批准 6所... 1月19日,教育部官方网站发布了关于批准设置本科高等学校的函件,9所由省级人民政府申报设置的本科高等...
9所本科高校获教育部批准 6所... 1月19日,教育部官方网站发布了关于批准设置本科高等学校的函件,9所由省级人民政府申报设置的本科高等...
湖北省黄冈市人大常委会原党组成... 据湖北省纪委监委消息:经湖北省纪委监委审查调查,黄冈市人大常委会原党组成员、副主任吴美景丧失理想信念...
《大江大河2》剧组暂停拍摄工作... 搜狐娱乐讯 今天下午,《大江大河2》剧组发布公告,称当前防控疫情是重中之重的任务,为了避免剧组工作人...