关闭广告

OpenAI没开源的gpt-oss基础模型,他去掉强化学习逆转出来了

机器之心Pro2025-08-13 12:00:011312人阅读



机器之心报道

编辑:Panda

前些天,OpenAI 少见地 Open 了一回,发布了两个推理模型 gpt-oss-120b 和 gpt-oss-20b。

但是,这两个模型都是推理模型,OpenAI 并未发布未经强化学习的预训练版本 gpt-oss 基础模型。然而,发布非推理的基础模型一直都是 AI 开源 / 开放权重社区的常见做法,DeepSeek、Qwen 和 Mistral 等知名开放模型皆如此。

近日,Cornell Tech 博士生、Meta 研究员 Jack Morris 决定自己动手填补这一空白。

他昨天在 上表示已经搞清楚了如何撤销 gpt-oss 模型的强化学习,让其回退成基础模型。他还宣布将在今天发布他得到的基础模型。



就在刚刚,他兑现了自己的承诺,发布了gpt-oss-20b-base



模型地址:https://huggingface.co/jxm/gpt-oss-20b-base

该模型一发布就获得了大量好评。



据介绍,该模型基于 gpt-oss-20b 混合专家模型 —— 使用低秩适应(LoRA)将其微调成了一个基础模型。

不同于 OpenAI 发布的 gpt-oss 模型,gpt-oss-20b-base 是基础模型,可用于生成任意文本。也就是说,从效果上看,Morris 逆转了 gpt-oss-20b 训练过程中的对齐阶段,使得到的模型可以再次生成看起来自然的文本。如下对比所示。



但也必须指出,正是因为 gpt-oss-20b 的对齐阶段被逆转了,因此这个模型已经不再对齐。也就是说,gpt-oss-20b-base 不仅会毫无顾忌地说脏话,也能帮助策划非法活动,所以使用要慎重。



研究者还测试了 gpt-oss-20b-base 的记忆能力。他表示:「我们可以使用来自有版权材料的字符串提示模型,并检查它的输出,这样就能轻松测试 gpt-oss 的记忆能力。」结果,他发现 gpt-oss 记得 6 本被测书籍中的 3 本。他说:「gpt-oss 绝对看过《哈利・波特》。」



gpt-oss-20b-base 的诞生之路

Jack Morris 也在 上分享了自己从灵感到炼成 gpt-oss-20b-base 的经历。

他介绍说自己此前使用的方法是「越狱(jailbreaking)」,但这个思路是错误的。于是,他想寻找一个可以诱使模型变回基础模型的提示词 —— 但这很难。



在与 OpenAI 联合创始人、前 Anthropic 研究者、Thinking Machines 联合创始人兼首席科学家 John Schulman 一番交流之后,他得到了一个好建议:为什么不将这种「对齐逆转」定义为优化?

也就是说「可以使用网络文本的一个子集来搜索最小可能的模型更新,使 gpt-oss 表现为基础模型」。

这涉及到两个原理。

原理 1. 低秩性(Low-rankedness)

普遍的观点是,预训练是将所有信息存储在模型权重中,而对齐 / 强化学习只是将输出分布集中在有利于对话(和推理)的非常狭窄的输出子集上。如果这是真的,那么 gpt-oss 模型与其原始预训练模型权重相比,其实只进行了少量更新。

也就是说:在预训练方向上存在一些足够低秩的更新,而这些更新就可以「逆转」后训练过程。

原理 2:数据不可知性(Data Agnosticism)

此外,需要明确,Morris 想要的是恢复原始模型的能力,而不是继续对其进行预训练。这里并不想要模型学习任何新内容,而是希望它重新具备自由的文本生成能力。

所以,只要数据与典型的预训练类似,使用什么数据都没关系。Morris 表示选择 FineWeb 的原因是它的开放度相对较高,加上他已经下载了。他表示只使用了大约 20,000 份文档。

因此实际上讲,他的做法就是将一个非常小的低秩 LoRA 应用于少数几个线性层,并使用

... 形式的数据进行训练,就像典型的预训练一样。



具体技术上,Morris 表示,gpt-oss-20b-base 是原始 gpt-oss-20b 模型的 LoRA 微调版本。为了确保尽可能低的秩,他仅对第 7、15 和 23 层的 MLP 层进行了微调。至于 LoRA,他使用了 16 的秩,因此总共有 60,162,048 个可训练参数,占原始模型 20,974,919,232 个参数的 0.3%。他已将所有参数合并回去,因此用户可以将此模型视为完全微调的模型 —— 这使得它在大多数用例中都更有用。

该模型以 2e-6 的学习率和 16 的批次大小在 FineWeb 数据集中的样本上进行了 1500 步微调。其最大序列长度为 8192。

那么,正如前 OpenAI 政策研究者 Miles Brundage 问道的那样:「有什么证据表明这是在掘出下面的基础模型,而不是教导一个已经蒸馏过的 / 无基础的模型像基础模型一样运作?」



Morris 解释说:「理论上讲,因为这个更新的秩很低。而从实践上看,是因为生成结果与训练数据无关。例如,我没有训练模型输出《哈利・波特》,但它却不知怎的知道其内容。」

未来,Morris 表示还会更彻底地检查 gpt-oss-20b-base 记忆的内容,并会试试逆转 gpt-oss-120b,另外他还将尝试指令微调以及与 GPT-2 和 GPT-3 进行比较。



对于该项目你怎么看?会尝试这个模型吗?

https://x.com/jxmnop/status/1955099965828526160

https://x.com/jxmnop/status/1955436067353502083

版权与免责声明:本文内容转载自其他媒体,目的在于传递更多信息,不代表本网观点或立场,不承担此类作品侵权行为的自己责任及连带责任。
猜你喜欢
精彩推荐

首个专注"MPV品牌" 锐胜汽车官宣以独立品牌运营

网易汽车 浏览 43 09-01

老板开免费青旅称自己承担房租和水电 已接待4000多人

极目新闻 浏览 55 09-01

中国-东北亚博览会8月启幕,读懂这场展会背后的深意

时代周报 浏览 8178 07-23

港股稳定币概念股持续活跃 OSL集团涨超5%

证券时报 浏览 9769 07-18

小米汽车:8月交付量超过30000台

网易科技报道 浏览 95 09-02

2-4遭海牛逆转,国安追平队史中超主场单场丢球纪录

懂球帝 浏览 5 10-27

等你老了,一定要杜绝花丝巾、超短裙,这样打扮才优雅得体

静儿时尚达人 浏览 8480 08-06

特斯拉车祸,被判赔偿超 2 亿美元;传 OpenAI 将推 10 美元「亲民订阅」;影石刘靖康:祝贺同行大疆推全景相机

极客公园 浏览 5102 08-03

女子回门宴放父母34年前结婚录像 现场8成宾客曾参加

极目新闻 浏览 0 10-31

北京大学重磅推出Lumen:让视频重新打光变得像换背景一样简单

科技行者 浏览 52 08-27

工信部将加快推进开源体系建设

IT之家 浏览 5771 07-26

原来城里的名创优品长这样!那我以前逛的算什么?

Yuki女人故事 浏览 51 08-26

豫园股份中期净利暴降9成,复星郭广昌还能忍多久?

密探财经 浏览 30 08-26

493万降价转让天水资产,西部机场集团“挥别”甘肃

粉巷财经 浏览 3618 07-24

男子买探测仪挖到藏宝罐 39件宋元时期首饰卖20万被抓

现代快报 浏览 9663 08-02

朝鲜谴责美军部署B1-B轰炸机至日本

新京报 浏览 8325 04-26

马龙社媒回复王楚钦生日祝福:还要靠你呢

懂球帝 浏览 13 10-21

TVB老戏骨吴博君病逝,生前患渐冻症经济困难,靠患病妻子照顾

萌神木木 浏览 5981 07-16

技术狂热过后,人形机器人下半场开拼:谁的订单先落地?

华尔街见闻官方 浏览 5376 07-23

DeepSeek开源新基础模型,但不是V4,而是V3.1-Base

机器之心Pro 浏览 7253 08-20

2025款奥迪Q5L裸车只要22万多?这真能买到吗,它选哪个版本好?

蜗牛车志V 浏览 7896 08-19
本站所有信息收集于互联网,如本站收集信息侵权,请联系我们及时删除沪ICP备20017958号-3