OpenAI o1要跟,怎么跟?这个GitHub项目把诠释、博客、相关论文一网打尽
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;">设备</span>之心<span style="color: black;">报告</span></p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><strong style="color: blue;">编辑:张倩</strong></p>优秀的 GitHub 项目啊!<span style="color: black;">相关</span> OpenAI ο1 的一切都在<span style="color: black;">这儿</span>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">在 AI <span style="color: black;">行业</span>,OpenAI <span style="color: black;">已然</span><span style="color: black;">成为了</span>指路明灯<span style="color: black;">通常</span>的存在。随着 o1 模型的发布,全世界的 AI 工程师都<span style="color: black;">起始</span>了新一轮的学习。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">为了<span style="color: black;">帮忙</span><span style="color: black;">大众</span>尽快抓住重点,<span style="color: black;">设备</span>之心<span style="color: black;">始终</span>在跟进<span style="color: black;">报告</span><span style="color: black;">关联</span>的<span style="color: black;">诠释</span>,<span style="color: black;">包含</span>:</p>北大对齐团队独家<span style="color: black;">诠释</span>:OpenAI o1 开启「后训练」时代强化学习新范式张俊林:OpenAI o1 的价值<span style="color: black;">道理</span>及强化学习的 Scaling Law<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;">同期</span>,<span style="color: black;">咱们</span><span style="color: black;">亦</span><span style="color: black;">发掘</span>了其他<span style="color: black;">有些</span>有用的资源,<span style="color: black;">例如</span>在一个 Github 项目中,有人汇总了<span style="color: black;">近期</span>的高质量技术<span style="color: black;">诠释</span>博客以及「可能」与 o1 技术路线<span style="color: black;">关联</span>的论文。<span style="color: black;">关联</span>资源列表会<span style="color: black;">始终</span>更新,</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><img src="//q1.itc.cn/images01/20240917/5df86489713b41ad803ed77dc369e6a7.jpeg" style="width: 50%; margin-bottom: 20px;"></p>项目链接:https://github.com/hijkzzz/Awesome-LLM-Strawberry<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">这些博客、论文有些是<span style="color: black;">大众</span>都读过的,还有些可能被淹没在平时的众多资源中。或许从中<span style="color: black;">大众</span><span style="color: black;">能够</span>找到复现 OpenAI o1 的有效<span style="color: black;">办法</span>。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><strong style="color: blue;">博客</strong></p>博客 1:Learning to Reason with LLMs作者:OpenAI链接:https://openai.com/index/learning-to-reason-with-llms/<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">博客概述:这篇博客简单介绍了 OpenAI o1 模型的训练<span style="color: black;">办法</span>,<span style="color: black;">例如</span>思维链的采用、模型安全性的<span style="color: black;">提高</span>等。详情请参见<span style="color: black;">设备</span>之心<span style="color: black;">报告</span>:《<span style="color: black;">刚才</span>,OpenAI 震撼发布 o1 大模型!强化学习突破 LLM 推理极限》</p>博客 2:OpenAI o1-mini作者:OpenAI链接:https://openai.com/index/openai-o1-mini-advancing-cost-efficient-reasoning/<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">博客概述:这篇博客介绍了 OpenAI o1-mini 模型的概况。详情请参见<span style="color: black;">设备</span>之心<span style="color: black;">报告</span>:《<span style="color: black;">刚才</span>,OpenAI 震撼发布 o1 大模型!强化学习突破 LLM 推理极限》</p>博客 3:Finding GPT-4’s mistakes with GPT-4作者:OpenAI链接:https://openai.com/index/finding-gpt4s-mistakes-with-gpt-4/<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">博客概述:这篇博客介绍了 CriticGPT——OpenAI 基于 GPT-4 训练的一个专门给 ChatGPT 挑毛病的新模型。它<span style="color: black;">经过</span><span style="color: black;">精细</span>地分析 ChatGPT 的回答并提出建设性的批评,<span style="color: black;">帮忙</span>人类训练师更准确地<span style="color: black;">评定</span>模型生成的代码,并识别其中的错误或潜在问题。据介绍,在 CriticGPT 的辅助下,人们审查 ChatGPT 代码的准确率<span style="color: black;">加强</span>了 60%。<span style="color: black;">科研</span>人员还<span style="color: black;">发掘</span>,CriticGPT 在<span style="color: black;">非常多</span><span style="color: black;">状况</span>下比人类专家更<span style="color: black;">善于</span><span style="color: black;">发掘</span>错误,它们<span style="color: black;">乃至</span>能在<span style="color: black;">有些</span>被认为是「完美无缺」的任务中找出问题,尽管这些任务大<span style="color: black;">都数</span>并不是代码任务,对 CriticGPT <span style="color: black;">来讲</span>有点超纲。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;">因为</span>该<span style="color: black;">科研</span><span style="color: black;">发布</span>时,Jan Leike 等 OpenAI 超级对齐团队成员<span style="color: black;">已然</span>离职,<span style="color: black;">因此呢</span><span style="color: black;">亦</span>被<span style="color: black;">叫作</span>为对齐团队「遗作」。详情请参见<span style="color: black;">设备</span>之心<span style="color: black;">报告</span>:《OpenAI 前对齐团队「遗作」:RLHF <span style="color: black;">不足</span>用了!用 GPT-4 训练 GPT-4》</p>博客 4:Summary of what we have learned during AMA hour with the OpenAI o1 team作者:Tibor Blaho链接:https://twitter-thread.com/t/1834686946846597281推文链接:https://x.com/btibor91/status/1834686946846597281<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">博客概述:<span style="color: black;">近期</span>,OpenAI o1 团队开展了一次答疑活动,这个帖子总结了答疑的概要,<span style="color: black;">包含</span>模型命名和推理范式,o1 模型的尺寸和性能,输入 token 上下文和模型能力,工具、功能和即将推出的特性,CoT 推理,API 和<span style="color: black;">运用</span>限制,定价、微调与扩展,模型<span style="color: black;">研发</span>和<span style="color: black;">科研</span>见解,提示技术和最佳实践等几个模块。<span style="color: black;">每一个</span>模块的总结都比较简短,感兴趣的读者<span style="color: black;">能够</span>参见原文。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><img src="//q3.itc.cn/images01/20240917/5f18589db2c1417ea3cd4e9e28b313cd.jpeg" style="width: 50%; margin-bottom: 20px;"></p>博客 5:OpenAI’s Strawberry, LM self-talk, inference scaling laws, and spending more on inference作者:Nathan Lambert(Allen AI <span style="color: black;">科研</span><span style="color: black;">专家</span>)链接:https://www.interconnects.ai/p/openai-strawberry-and-inference-scaling-laws<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">博客概述:在<span style="color: black;">文案</span>中,作者讨论了 OpenAI 的新<span style="color: black;">办法</span>「Strawberry」及推理 scaling law,强调了推理计算的投入对 AI 能力<span style="color: black;">提高</span>的重要性。作者指出,扩大推理计算比单纯扩大模型规模更有效,类似 AlphaGo 的推理技术能够<span style="color: black;">明显</span><span style="color: black;">提高</span>模型表现。<span style="color: black;">文案</span>呼吁<span style="color: black;">将来</span> AI <span style="color: black;">研发</span>要<span style="color: black;">更加多</span>关注推理技术。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">这篇博客发布于 9 月初,当时 OpenAI 还<span style="color: black;">无</span>发布 o1 模型,<span style="color: black;">因此呢</span><span style="color: black;">此刻</span>看起来非常有前瞻性。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><img src="//q2.itc.cn/images01/20240917/4734a3d164fa4c019821eb1756670a53.jpeg" style="width: 50%; margin-bottom: 20px;"></p>博客 6:Reverse engineering OpenAI’s o1作者:Nathan Lambert(Allen AI <span style="color: black;">科研</span><span style="color: black;">专家</span>)链接:https://www.interconnects.ai/p/reverse-engineering-openai-o1<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">博客概述:这篇博客系统讨论了 OpenAI o1。o1 <span style="color: black;">经过</span>训练新模型处理长推理链,并<span style="color: black;">运用</span><span style="color: black;">海量</span>强化学习来实现。与自回归语言模型<span style="color: black;">区别</span>,o1 在线为用户搜索答案,展示了新的 scaling law—— 推理 scaling law。博客还讨论了 o1 的<span style="color: black;">有些</span>技术细节,<span style="color: black;">包含</span>其<span style="color: black;">怎样</span><span style="color: black;">运用</span>强化学习进行训练,以及它在推理时的高成本。<span style="color: black;">另外</span>,博客还探讨了 o1 对<span style="color: black;">将来</span> AI <span style="color: black;">行业</span>的影响,<span style="color: black;">包含</span>它<span style="color: black;">怎样</span>改变 AI <span style="color: black;">制品</span>的<span style="color: black;">安排</span>堆栈和期望,以及它<span style="color: black;">怎样</span><span style="color: black;">做为</span>一个模型,<span style="color: black;">经过</span><span style="color: black;">区别</span>的生成策略来实现<span style="color: black;">繁杂</span>的任务。最后,博客提出了<span style="color: black;">有些</span>关于 o1 结构和功能的问题,并讨论了在开源<span style="color: black;">行业</span>复制这种系统所面临的挑战。作者还对 AI <span style="color: black;">将来</span>的发展方向<span style="color: black;">暗示</span>了期待,认为 AI 的进步将继续奖励<span style="color: black;">哪些</span>敢于想象不可能<span style="color: black;">火速</span>变为可能的人。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><img src="//q9.itc.cn/images01/20240917/6db9deb73d2640eb8452c4a2c7d280db.jpeg" style="width: 50%; margin-bottom: 20px;"></p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><strong style="color: blue;">论文</strong></p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><strong style="color: blue;">OpenAI o1 贡献者参与撰写的论文</strong></p>论文 1:Training Verifiers to Solve Math Word Problems<span style="color: black;">公司</span>:OpenAI作者:Karl Cobbe, Vineet Kosaraju, Mohammad Bavarian, Mark Chen, Heewoo Jun, Lukasz Kaiser, Matthias Plappert, Jerry Tworek, Jacob Hilton, Reiichiro Nakano, Christopher Hesse, John Schulman链接:https://arxiv.org/abs/2110.14168<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">论文概述:这篇论文发布于 2021 年 10 月。论文指出,尽管最先进的语言模型在<span style="color: black;">非常多</span>任务上表现优异,但在处理多<span style="color: black;">过程</span>数学推理时仍有困难。为<span style="color: black;">认识</span>决这个问题,作者创建了 GSM8K 数据集,<span style="color: black;">包括</span> 8500 个多样化的小学数学问题。<span style="color: black;">科研</span><span style="color: black;">发掘</span>,即使是大型 Transformer 模型<span style="color: black;">亦</span>难以在这些任务上取得好成绩。为了<span style="color: black;">加强</span>性能,作者<span style="color: black;">意见</span>训练验证器来<span style="color: black;">评定</span>模型答案的正确性。<span style="color: black;">经过</span>在测试时生成多个答案并<span style="color: black;">选取</span>验证器评分最高的答案,这种<span style="color: black;">办法</span><span style="color: black;">明显</span><span style="color: black;">提高</span>了模型在 GSM8K 上的表现,并证明了这种<span style="color: black;">办法</span>比传统的微调<span style="color: black;">办法</span>更有效。</p>论文 2:Generative Language Modeling for Automated Theorem Proving<span style="color: black;">公司</span>:OpenAI作者:Stanislas Polu, Ilya Sutskever链接:https://arxiv.org/abs/2009.03393<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">论文概述:这篇论文发布于 2020 年 9 月,Ilya Sutskever 是作者之一。论文探讨了基于 Transformer 的语言模型在自动定理证明中的应用。<span style="color: black;">科研</span>的动机是,自动定理证明器与人类相比的一个<span style="color: black;">重点</span>限制 —— 生成原创的数学术语 —— 可能<span style="color: black;">能够</span><span style="color: black;">经过</span>语言模型的生成来<span style="color: black;">处理</span>。作者介绍了一个名为 GPT-f 的自动证明器和证明助手,用于 Metamath 形式化语言,并分析了其性能。GPT-f <span style="color: black;">发掘</span>了被 Metamath <span style="color: black;">重点</span>库接受的新短证明,据作者所知,这是基于深度学习系统首次为形式数学社区贡献并被采纳的证明。</p>论文 3:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models<span style="color: black;">公司</span>:谷歌大脑作者:Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Brian Ichter, Fei Xia, Ed Chi, Quoc Le, Denny Zhou链接:https://arxiv.org/abs/2201.11903<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">论文概述:这篇论文发布于 2022 年 1 月。论文探讨了<span style="color: black;">怎样</span><span style="color: black;">经过</span>生成一系列中间推理<span style="color: black;">过程</span>(即「思维链」)来<span style="color: black;">明显</span>提<span style="color: black;">高挑</span>型语言模型进行<span style="color: black;">繁杂</span>推理的能力。<span style="color: black;">详细</span><span style="color: black;">来讲</span>,作者提出了思维链提示的<span style="color: black;">办法</span>,即在提示中<span style="color: black;">供给</span>几个思维链的示例,以此来引导模型进行更深入的推理。实验<span style="color: black;">显示</span>,这种<span style="color: black;">办法</span>在三个大型语言模型上<span style="color: black;">加强</span>了算术、常识和符号推理任务的性能。</p>论文 4:Lets Verify Step by Step<span style="color: black;">公司</span>:OpenAI作者:Hunter Lightman, Vineet Kosaraju, Yura Burda, Harri Edwards, Bowen Baker, Teddy Lee, Jan Leike, John Schulman, Ilya Sutskever, Karl Cobbe链接:https://arxiv.org/abs/2305.20050<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">论文概述:这篇论文发布于 2023 年 5 月。论文探讨了大型语言模型在<span style="color: black;">繁杂</span>多步推理任务中的表现及其<span style="color: black;">靠谱</span>性问题。作者比较了两种训练<span style="color: black;">办法</span>:结果监督(outcome supervision)和过程监督(process supervision),前者仅对<span style="color: black;">最后</span>结果<span style="color: black;">供给</span>反馈,后者则对<span style="color: black;">每一个</span>推理<span style="color: black;">过程</span><span style="color: black;">供给</span>反馈。<span style="color: black;">科研</span><span style="color: black;">发掘</span>,过程监督在训练模型<span style="color: black;">处理</span> MATH 数据集中的问题时,<span style="color: black;">明显</span>优于结果监督。<span style="color: black;">详细</span><span style="color: black;">来讲</span>,采用过程监督的模型在 MATH 测试集的一个<span style="color: black;">表率</span>性子集中<span style="color: black;">处理</span>问题的成功率为 78%。<span style="color: black;">另外</span>,论文还展示了主动学习(active learning)在<span style="color: black;">加强</span>过程监督效率方面的重要性。为了支持<span style="color: black;">关联</span><span style="color: black;">科研</span>,作者还发布了 PRM800K 数据集,这是一个<span style="color: black;">包括</span> 800,000 个<span style="color: black;">过程</span>级人类反馈标签的完整数据集,用于训练<span style="color: black;">她们</span>的最佳奖励模型。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;">因为</span><span style="color: black;">包含</span> Ilya 在内的多位 o1 核心贡献者都参与了这篇论文,有人猜测这是 o1 模型训练的<span style="color: black;">办法</span>论。感兴趣的读者<span style="color: black;">能够</span>重点阅读。<span style="color: black;">亦</span>可参阅<span style="color: black;">设备</span>之心的<span style="color: black;">报告</span>《OpenAI 要为 GPT-4 <span style="color: black;">处理</span>数学问题了:奖励模型指错,解题水平达到新高度》。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><img src="//q6.itc.cn/images01/20240917/59a46fcdeddf4e52913903d85faf42b6.jpeg" style="width: 50%; margin-bottom: 20px;"></p>论文 5:LLM Critics Help Catch LLM Bugs<span style="color: black;">公司</span>:OpenAI作者:Nat McAleese, Rai Michael Pokorny, Juan Felipe Ceron Uribe, Evgenia Nitishinskaya, Maja Trebacz, Jan Leike链接:https://arxiv.org/abs/2407.00215<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">论文概述:这篇论文发布于 2024 年 6 月。论文介绍了一种<span style="color: black;">经过</span>训练「批评者」模型(即前面<span style="color: black;">说到</span>的 CriticGPT )来<span style="color: black;">加强</span>人类<span style="color: black;">评定</span><span style="color: black;">设备</span>学习模型输出的<span style="color: black;">办法</span>。这些批评者模型是大型语言模型,它们被训练来<span style="color: black;">供给</span>自然语言反馈,指出代码中的问题。<span style="color: black;">科研</span><span style="color: black;">显示</span>,这些模型在识别代码错误方面比人类更有效,<span style="color: black;">乃至</span>能够<span style="color: black;">发掘</span>人类审查者未<span style="color: black;">发掘</span>的错误。尽管存在局限性,如可能产生误导的幻觉错误,但结合人类和<span style="color: black;">设备</span>的团队<span style="color: black;">能够</span>减少这种误导,<span style="color: black;">同期</span>保持错误检测的效率。</p>论文 6:Self-critiquing models for assisting human evaluators<span style="color: black;">公司</span>:OpenAI作者:William Saunders, Catherine Yeh, Jeff Wu, Steven Bills, Long Ouyang, Jonathan Ward, Jan Leike链接:https://arxiv.org/pdf/2206.05802<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">论文概述:这篇论文发布于 2022 年 6 月。论文<span style="color: black;">科研</span>了<span style="color: black;">怎样</span><span style="color: black;">经过</span>微调大型语言模型,<span style="color: black;">运用</span><span style="color: black;">行径</span>克隆来生成自然语言的批评性评论,以<span style="color: black;">帮忙</span>人类<span style="color: black;">发掘</span>摘要中的缺陷。实验<span style="color: black;">显示</span>,这些模型生成的评论能够揭示人类和<span style="color: black;">设备</span>生成摘要中的问题,<span style="color: black;">包含</span>故意误导的错误。<span style="color: black;">科研</span><span style="color: black;">发掘</span>,更大的模型在撰写有<span style="color: black;">帮忙</span>的评论和自我批评方面表现更好,并且能够利用自我批评来改进自己的摘要。论文还提出了一个比较批评能力、生成能力和辨别能力的框架,并指出即使是大型模型<span style="color: black;">亦</span>可能有未表达的知识。这项<span style="color: black;">科研</span>为<span style="color: black;">运用</span>人工智能辅助的人类反馈来监督<span style="color: black;">设备</span>学习系统<span style="color: black;">供给</span>了概念验证,并公开了训练数据集和实验样本。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><strong style="color: blue;">其他论文</strong></p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">除了以上论文,作者还<span style="color: black;">根据</span>年份列出了<span style="color: black;">有些</span>可能与 OpenAI o1 <span style="color: black;">关联</span>的论文,列表如下:</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">2024 年:</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><img src="//q2.itc.cn/images01/20240917/28393e19ad314ee2a5677494a3827a02.jpeg" style="width: 50%; margin-bottom: 20px;"></p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><img src="//q0.itc.cn/images01/20240917/2f2897202c334998a02a70897cea74ee.jpeg" style="width: 50%; margin-bottom: 20px;"></p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">2023 年:</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><img src="//q7.itc.cn/images01/20240917/817f385942ac40dc9a0a43c7354823e6.jpeg" style="width: 50%; margin-bottom: 20px;"></p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">2022 年:</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><img src="//q6.itc.cn/images01/20240917/4cd4717f465846b2bdbf10792780142a.jpeg" style="width: 50%; margin-bottom: 20px;"></p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">2021 年:</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><img src="//q1.itc.cn/images01/20240917/2f56192c67624ce5b537a75882deec7a.jpeg" style="width: 50%; margin-bottom: 20px;"></p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">2017 年:</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><img src="//q9.itc.cn/images01/20240917/ed7808cc1dc542dcb06ce3c9871c98b1.jpeg" style="width: 50%; margin-bottom: 20px;"></p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;">更加多</span>信息请参见原 GitHub 库。<a style="color: black;"><span style="color: black;">返回<span style="color: black;">外链论坛: http://www.fok120.com</span>,查看<span style="color: black;">更加多</span></span></a></p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;">责任编辑:网友投稿</span></p>
认真阅读了楼主的帖子,非常有益。 我赞同你的看法,你的智慧让人佩服,谢谢分享。
页:
[1]