188金宝博,金宝博,188金宝博体育,188金宝博官方网站,188金宝博app下载,金宝博体育,金宝博网站,金宝博链接,188金宝博网址,188金宝博黑款,金宝博入口,金宝博登录,体育投注,足球投注是一款模拟经营策略游戏,该版本玩家可以直接通过安卓模拟器在电脑上安装体验。该游戏采用唯美的水墨画风,将中国风元素融入游戏场景,为玩家带来极致的视觉享受,让您沉浸其中,感受P6F3X2M7T9QJ8L1B4WZR之美。在游戏中,玩家将扮演一位祖师,开宗立派,培养一众有趣的弟子,帮助他们渡劫成仙。每位弟子都拥有独特的命格和属性,个性迥异,让您体验到千奇百怪的修仙生活。
与此同时,乐博赌场网站中文版下载还拥有独特的挂机机制,您可以将游戏放置在后台,解放双手,让弟子们自动修炼、渡劫,贴心呵护您的修仙门派。宗门地产建设也是游戏的重要内容,您可以自由摆放,打造属于自己的修仙宗门,创造仙门人的理想家园。从山海异兽到一石一木,处处充满着古韵仙风,让您仿佛置身于修仙小说般的仙境之中。
近年来,链式推理和强化学习已经被广泛应用于大语言模型,让大语言模型的推理能力得到了显著提升。然而,在图像生成模型中,这种成功经验尚未得到充分探索。图像生成模型往往直接依据给定文本生成图像,缺乏类似人类创作过程中的推理,导致生成的图像在语义遵循上仍有一定局限。
近期,上海科技大学、微软亚洲研究院和复旦大学提出了 ReasonGen-R1 框架,一个两阶段训练框架,将链式推理监督微调(Supervised Fine-tuning)与强化学习(Reinforcement Learning)相结合,以提升自回归图像生成模型的推理和创作能力。ReasonGen-R1 使得自回归图像生成模型可以端到端地在输出图片之前先进行文本「思考」,大幅提升了基座模型的语义遵循能力,并在多个语义指标上取得突破。
目前,ReasonGen-R1 已全面开源(包括训练、评测代码,训练数据以及模型)。
ReasonGen-R1 的训练包括两个核心阶段:监督微调阶段(SFT)以及强化学习阶段(RL)。
监督微调阶段首先构建了一个大规模图片生成推理数据集,共包含 20 万条图像-文本对。该数据集基于 LAION 美学子集,利用 GPT-4.1 根据图片自动生成两类描述:一是多样化的简洁图片描述(包括常规叙述、基于标签和以物体为中心的叙述),二是丰富的推理式 CoT(chain-of-thought)叙述。多风格的简洁图片描述设计有效避免了模型在 SFT 阶段对单一 prompt 模式的过拟合。
图1. ReasonGen-R1 模型架构概览。ReasonGen-R1通过监督微调(SFT)以及强化学习(RL)使得模型可以先进行链式推理,再生成最终图片。
强化学习阶段通过 Group Relative Policy Optimization(GRPO)进一步优化模型输出。为了有效评价生成输出图像的质量和输入文本-输出图像的一致性,ReasonGen-R1 采用了预训练视觉语言模型 Qwen-2.5-VL-7B 作为奖励模型,让其对于每个输出图片,根据图片以及输入文本是否一致,给出 0、1 奖励。
此外,为确保训练稳定性,ReasonGen-R1 提出了一种改进的自适应熵损失函数,该损失函数能够将输出 token 的熵动态调节到目标熵附近,有效防止了在文本图像混合强化训练过程中训练不稳定导致模式崩塌的问题。
如图 4 所示,ReasonGen-R1 在所有指标上都较基座模型有了显著的提升。这些结果表明,将文本推理通过 SFT-RL 的框架应用于图片生成,能够显著提升自回归图像生成模型的性能。
图4. 左图:基座模型Janus-Pro-7B和ReasonGen-R1生成图像可视化比较;右图:三个指令遵循指标上的表现比较。ReasonGen-R1在所有指标上均超过了基座模型,体现了指令遵循能力的巨大提升。
为深入探讨 ReasonGen-R1 各个模块的贡献,研究还进行了以下消融实验:
SFT 阶段的作用:为了测试 SFT 阶段对于模型最终性能的影响,ReasonGen-R1 对比了直接强化学习的结果。如表 1 所示,仅使用强化学习(RL)而未进行监督微调(SFT)时,模型表现显著下降,证明了 SFT 阶段对模型后续强化学习阶段的重要性。
奖励模型规模影响:实验还对比了不同大小的奖励模型。如表 1 所示,较小规模的奖励模型(Qwen-2.5-VL-3B)无法提供足够精准的反馈信号,严重影响强化学习阶段的表现。因此,选择高精度、大规模的奖励模型至关重要。
自适应熵损失函数的稳定作用:如图 6 所示,在没有熵损失的情况下,模型在经过 100 步的训练后会出现熵爆炸,同时 Reward 开始缓慢下降。另一方面,施加固定熵惩罚(–0.002)会使熵持续下降,并在第 80 步时过低,进而引发图片生成模式崩塌和奖励急剧下滑。这些现象凸显了在交错文本与图像的 RL 训练中,对于熵损失正则化设置的敏感性。相比之下,采用 ReasonGen-R1 提出的自适应熵损失能够将熵保持在最佳范围内,确保训练过程的稳定性以及奖励的稳定增长。
图7. 1000次CoT输出中的单词频率。只有出现频率高于20%的单词被展示。出现频率最高的三个’a, an, the’被移除以关注保护更多信息的词语
图 7 展示了 ReasonGen-R1 推理链的模式。首先,它通过「感知」(sense)、「场景」(scene)和「自然」(natural)等高频词(在超过 140% 的 CoT 中出现)来奠定总体框架,强调整体语境和真实场景。接着,它细化视觉风格:诸如「柔和」(soft)、「高光」(highlights)、「氛围」(mood)和「流畅」(sleek)等词汇(均在超过 100% 的 CoT 中出现)用以描述光照质量、情感基调和质感。
更关键的是,「突出」(highlighting)和「强调」(emphasizing)这两个词各自在至少 70% 的 CoT 中出现,表明模型有意识地聚焦于主要主体。这揭示出 ReasonGen-R1 不仅仅是在描述物体,而是在主动规划构图焦点。
除了核心词汇外,ReasonGen-R1 还运用了大量修饰词——「背景」(background)用于建立环境氛围;「特征」(features)用于突出显著视觉元素;「宁静」(calm)用于渲染平和氛围;「瞬间」(moments)用于传达时间抓拍感;「捕捉」(captured)用于强调摄影真实感;等等——以在每条推理序列中注入细腻的、情境化的细节。
总体而言,ReasonGen-R1 的推理链通过场景框架、风格细节、主体聚焦和细节修饰等要素,有效地引导了图像生成过程。
除了培养弟子和建设仙门外,游戏还包含了炼丹、炼器、仙田等多种修仙玩法,让玩家体验到修仙的方方面面。
玩家可以自由摆放修仙宗门的建筑,打造属于自己的修仙家园,创造仙门人的理想世界。
游戏的画面精致细腻,每一个场景都充满了古典美感,让玩家仿佛身临其境,感受到修仙之美。
游戏内置丰富的社交系统,玩家可以与其他玩家组成联盟,共同对抗强敌,体验多人合作的乐趣,增加了游戏的可玩性和趣味性。
2、画面精美,场景设计唯美,让玩家沉浸其中,感受到了修仙世界的奇幻美感。
3、挂机系统的设置贴心实用,解放了玩家的双手,让玩家更轻松地享受游戏乐趣。
4、弟子个性化塑造突出,每个弟子都有自己独特的故事和特点,增加了游戏的趣味性和可玩性。
1.1调整问鼎苍穹席位赛的防守阵容设置规则,现在任何时候都可以调整防守阵容
1.2优化天道树领悟道果时道果数量不足的获取提示,现在会自动打开道果宝箱,方便祖师快捷获取
1.3优化新增仙法问道投资活动的购买提示,现在休赛期购买投资时,如果无法拿满奖励则会有二次确认提示