关闭广告

OpenAI没开源的gpt-oss基础模型,他去掉强化学习逆转出来了

机器之心Pro2025-08-13 12:00:011279人阅读



机器之心报道

编辑:Panda

前些天,OpenAI 少见地 Open 了一回,发布了两个推理模型 gpt-oss-120b 和 gpt-oss-20b。

但是,这两个模型都是推理模型,OpenAI 并未发布未经强化学习的预训练版本 gpt-oss 基础模型。然而,发布非推理的基础模型一直都是 AI 开源 / 开放权重社区的常见做法,DeepSeek、Qwen 和 Mistral 等知名开放模型皆如此。

近日,Cornell Tech 博士生、Meta 研究员 Jack Morris 决定自己动手填补这一空白。

他昨天在 上表示已经搞清楚了如何撤销 gpt-oss 模型的强化学习,让其回退成基础模型。他还宣布将在今天发布他得到的基础模型。



就在刚刚,他兑现了自己的承诺,发布了gpt-oss-20b-base



模型地址:https://huggingface.co/jxm/gpt-oss-20b-base

该模型一发布就获得了大量好评。



据介绍,该模型基于 gpt-oss-20b 混合专家模型 —— 使用低秩适应(LoRA)将其微调成了一个基础模型。

不同于 OpenAI 发布的 gpt-oss 模型,gpt-oss-20b-base 是基础模型,可用于生成任意文本。也就是说,从效果上看,Morris 逆转了 gpt-oss-20b 训练过程中的对齐阶段,使得到的模型可以再次生成看起来自然的文本。如下对比所示。



但也必须指出,正是因为 gpt-oss-20b 的对齐阶段被逆转了,因此这个模型已经不再对齐。也就是说,gpt-oss-20b-base 不仅会毫无顾忌地说脏话,也能帮助策划非法活动,所以使用要慎重。



研究者还测试了 gpt-oss-20b-base 的记忆能力。他表示:「我们可以使用来自有版权材料的字符串提示模型,并检查它的输出,这样就能轻松测试 gpt-oss 的记忆能力。」结果,他发现 gpt-oss 记得 6 本被测书籍中的 3 本。他说:「gpt-oss 绝对看过《哈利・波特》。」



gpt-oss-20b-base 的诞生之路

Jack Morris 也在 上分享了自己从灵感到炼成 gpt-oss-20b-base 的经历。

他介绍说自己此前使用的方法是「越狱(jailbreaking)」,但这个思路是错误的。于是,他想寻找一个可以诱使模型变回基础模型的提示词 —— 但这很难。



在与 OpenAI 联合创始人、前 Anthropic 研究者、Thinking Machines 联合创始人兼首席科学家 John Schulman 一番交流之后,他得到了一个好建议:为什么不将这种「对齐逆转」定义为优化?

也就是说「可以使用网络文本的一个子集来搜索最小可能的模型更新,使 gpt-oss 表现为基础模型」。

这涉及到两个原理。

原理 1. 低秩性(Low-rankedness)

普遍的观点是,预训练是将所有信息存储在模型权重中,而对齐 / 强化学习只是将输出分布集中在有利于对话(和推理)的非常狭窄的输出子集上。如果这是真的,那么 gpt-oss 模型与其原始预训练模型权重相比,其实只进行了少量更新。

也就是说:在预训练方向上存在一些足够低秩的更新,而这些更新就可以「逆转」后训练过程。

原理 2:数据不可知性(Data Agnosticism)

此外,需要明确,Morris 想要的是恢复原始模型的能力,而不是继续对其进行预训练。这里并不想要模型学习任何新内容,而是希望它重新具备自由的文本生成能力。

所以,只要数据与典型的预训练类似,使用什么数据都没关系。Morris 表示选择 FineWeb 的原因是它的开放度相对较高,加上他已经下载了。他表示只使用了大约 20,000 份文档。

因此实际上讲,他的做法就是将一个非常小的低秩 LoRA 应用于少数几个线性层,并使用

... 形式的数据进行训练,就像典型的预训练一样。



具体技术上,Morris 表示,gpt-oss-20b-base 是原始 gpt-oss-20b 模型的 LoRA 微调版本。为了确保尽可能低的秩,他仅对第 7、15 和 23 层的 MLP 层进行了微调。至于 LoRA,他使用了 16 的秩,因此总共有 60,162,048 个可训练参数,占原始模型 20,974,919,232 个参数的 0.3%。他已将所有参数合并回去,因此用户可以将此模型视为完全微调的模型 —— 这使得它在大多数用例中都更有用。

该模型以 2e-6 的学习率和 16 的批次大小在 FineWeb 数据集中的样本上进行了 1500 步微调。其最大序列长度为 8192。

那么,正如前 OpenAI 政策研究者 Miles Brundage 问道的那样:「有什么证据表明这是在掘出下面的基础模型,而不是教导一个已经蒸馏过的 / 无基础的模型像基础模型一样运作?」



Morris 解释说:「理论上讲,因为这个更新的秩很低。而从实践上看,是因为生成结果与训练数据无关。例如,我没有训练模型输出《哈利・波特》,但它却不知怎的知道其内容。」

未来,Morris 表示还会更彻底地检查 gpt-oss-20b-base 记忆的内容,并会试试逆转 gpt-oss-120b,另外他还将尝试指令微调以及与 GPT-2 和 GPT-3 进行比较。



对于该项目你怎么看?会尝试这个模型吗?

https://x.com/jxmnop/status/1955099965828526160

https://x.com/jxmnop/status/1955436067353502083

版权与免责声明:本文内容转载自其他媒体,目的在于传递更多信息,不代表本网观点或立场,不承担此类作品侵权行为的自己责任及连带责任。
猜你喜欢
精彩推荐

AI编程终于“开箱即用”了?Qwen3-Coder或许是那个质变节点

硅星人 浏览 9138 07-24

“果链”巨头歌尔股份出手,筹划近百亿元收购

国际金融报 浏览 2025 07-23

中国女留学生患癌 起诉密歇根州立大学索赔1亿美元

红星新闻 浏览 24 08-22

阿里巴巴要将“斑马”分拆上市

国际金融报 浏览 22 08-23

今年最流行的4条裤子,太时髦了!

LinkFashion 浏览 9650 06-04

对伊朗发动袭击被指违宪 特朗普被要求弹劾

上观新闻 浏览 1487 06-23

纯电六座SUV,谁主沉浮?

盖世汽车 浏览 7064 07-24

因“地出”照片闻名的月球陨石坑,成JUICE探测器的关键测试点

IT之家 浏览 771 08-03

张碧晨“年轮”事后 华晨宇的天亮了!

手工制作阿歼 浏览 8871 07-29

英媒:怕重演"白宫冲突" 多位欧洲领导人陪乌总统赴美

环球网资讯 浏览 8182 08-18

手机显示VIP标识:河北联通与华为在张北草原音乐节“秀肌肉”

IT之家 浏览 8001 07-31

二季度重仓股出炉!这些股票被大举增持

中国基金报 浏览 2080 07-22

全新岚图知音预售22万元起 配齐华为全家桶

网易汽车 浏览 9754 08-14

乌军:俄袭击哈尔科夫 致45人受伤

每日经济新闻 浏览 1928 05-01

美媒:美方计划控制加沙地带至少10年

界面新闻 浏览 14 09-02

跟董明珠掐架十年,这家公司要逆袭了?

豹变 浏览 8922 08-20

记者:迪亚斯母队巴兰基亚青年将获75万欧,巴兰基亚获37.5万

懂球帝 浏览 553 07-29

传奇加成!纹了C罗+马拉多纳纹身的女球员助阿根廷队完成绝杀

懂球帝 浏览 8106 07-23

“空气充电宝”来了

21世纪经济报道 浏览 21 08-30

国产晶圆代工双雄现并购分野:中芯国际停牌收购子公司,华虹半导体复牌吸并“兄弟”资产

国际金融报 浏览 11 09-02

宗馥莉被起诉,富二代们坐不住了?

恪守原则和底线 浏览 403 07-20
本站所有信息收集于互联网,如本站收集信息侵权,请联系我们及时删除沪ICP备20017958号-3