姚顺雨担任腾讯首席AI科学家后首个研究成果揭晓。2月3日,腾讯混元官网技术博客发表了一篇题为《从上下文中学习,远比我们想象的要难》的文章,系统地介绍了腾讯混元团队联合复旦大学的一项新研究。该文章中还提到,未来竞争的焦点将从“谁能把模型训练得更好”,转向“谁能为任务提供最丰富、最相关的上下文”。据悉,这是姚顺雨加入腾讯担任首席AI科学家后团队首次发布研究成果。
去年12月17日,腾讯升级大模型研发架构,新成立AI Infra部、AI Data部、数据计算平台部,全面强化其大模型的研发体系与核心能力。OpenAI著名研究者姚顺雨出任“CEO/总裁办公室”首席AI科学家,向腾讯总裁刘炽平汇报;同时兼任AI Infra部、大语言模型部负责人,向技术工程事业群总裁卢山汇报。近日,姚顺雨在现场给腾讯首届“青云奖学金”获得者颁奖。
姚顺雨
过去几年,大语言模型快速进化,如今的前沿模型,已经是顶级的“做题家”:它们能解开奥数级别的难题,能推演复杂的编程逻辑,甚至能通过那些人类需要苦读数年才能拿下的专业资格考试。
但截至目前,在面临真实世界的任务时,模型表现还有待提升。在人类日常工作中,玩家拿起新游戏的规则书,就能在实战中边玩边学;科学家从复杂的实验日志中筛选数据,就能推导出新的结论和定律。这些场景中,人类并不只依赖多年前学到的知识,而是在实时地从眼前的上下文中学习。
在这篇论文里,腾讯混元和复旦大学联合研究团队提到,要让大模型学会“从上下文中学习”,远比我们想象的要难。并且,即便抹平了上下文带来的信息差,模型也未必能解决问题,这说明模型在上下文利用上,依然存在显著的能力短板。
为了衡量现有模型距离真正的“上下文学习者”还有多远,研究团队构建了 CL-bench,这是一个专门评测语言模型能否从上下文中学习新知识并正确应用的基准。CL-bench 包含由资深领域专家精心制作的500个复杂上下文、1899个任务和31607个验证标准。CL-bench只包含一个简单但苛刻的要求:解决每个任务要求模型必须从上下文中学习到模型预训练中不存在的新知识,并正确应用。
通过实验,论文发现,世界上排名前十的语言模型在CL-bench上的任务解决率平均只有17.2% ,也就是说即使是如今最强的语言模型,在上下文的利用方面仍然做得不好,甚至可以说是还不会利用上下文,从上下文中学习。
这也为大语言模型后续的迭代指出了一个可能的方向,即强化模型从上下文中进行学习的能力。官方技术博客还提到,如果模型的上下文学习能力能像之前其他能力那样被提升上去,人类在AI 系统中的角色将发生转变:我们不再是主要的数据提供者,而变成了上下文提供者。未来,竞争的焦点将从“谁能把模型训练得更好”,转向“谁能为任务提供最丰富、最相关的上下文”。
研究团队也强调,模型如何记忆很可能成为 2026 年大模型发展的另一个核心主题,并且,一旦上下文学习与记忆变得可靠,模型或许就能实现自主学习,它们将自主准备上下文,从中学习并自我巩固。
采写:南都N视频记者 林文琪
上一篇:国内油价二连涨之际,美伊局势“反转”,国际油价大跳水急跌5%
下一篇:没有了