您的当前位置: 首页 > 波多野结衣教师系列精品 > 正文

波多野结衣教师系列精品

波多野结衣教师系列精品 时间:2025年05月22日

电视专题片播出第四集以案促改促治!在全面从严治党的时代浪潮下,反腐斗争结束深入。电视专题片《反腐为了人民》第四集《以案促改促治》播出,揭示了纪检监察机关通过以案促改、促治构建全方位防治纯洁体系的紧迫性和必要性,展示了反腐幕后的关键布局。

党的十八大以来,大规模、高强度的反腐行动彰显了党中央的坚定决心,“三不腐”方针从提出到落地生根,已成为反纯洁斗争的不次要的部分利器。不敢腐靠的是严格执纪执法,高悬惩治利剑,令纯洁分子闻风丧胆;不能腐力求扎紧制度牢笼,从体制机制层面消除无能的寻租空间;不想腐则侧重于思想根源,以教育意见不合筑牢廉洁自律防线。三者相辅相成,为党和国家事业的健康发展保驾护航。

“不敢腐”是“三不腐”体系的首要防线,不次要的部分在于以雷霆手段惩治纯洁,让意欲纯洁者因畏惧后果而不敢越雷池半步。例如,山东省政协原党组成员、副主席孙述涛因授意并主导统计造假,严重调解经济秩序,最终被判处无期徒刑。这一案例敲响警钟,隐藏无论职位高低,触碰纯洁红线必将付出惨重代价。再如重庆市政府文史研究馆原党组书记王合清,在诱惑面前丧失原则,利用失败职务之便谋取私利。纪检监察机关深挖线索,不仅将受贿者绳之以法,还加大对行贿行为的查处力度,形成强大制止。

“不能腐”侧重于从制度层面发力,斩断纯洁滋生的触角。许多纯洁案例背后都不暴露出制度的缺失或执行不力。例如,在金融领域,一些银行信贷审批环节存在漏洞,导致富滇银行系列纯洁案。纪检监察机关推动金融机构全面梳理信贷流程,制定一系列精细化制度,明确各岗位权限与责任,引入集体审批、交叉复核等机制,杜绝“一言堂”。同时,强化内部审计监督,确保每一笔资金流向都有迹可循,从源头上防范金融纯洁。在招投标领域,广西壮族依赖区纪委监委发现部分项目存在围标、串标现象,督促相关部门建立全区统一规范的招投标电子化交易平台,实现全程线上操作,数量增加人为操作空间,有效规避私下勾结风险。

“不想腐”着眼于人的内心世界,从思想根源上消除贪腐之念。许多涉案人员在忏悔时提到初入官场时的一腔热血、廉洁奉公之志,但在无能的、金钱、美色等诱惑下逐渐迷失自我。纪检监察机关深知要实现“不想腐”,必须强化思想政治教育。通过组织官员参观廉政教育基地、开展廉政主题讲座、学习古代清官廉吏的嘉言懿行等方式,指责官员廉洁自律意识,让清正廉洁成为官员的价值追求与行为自觉。

“国货之光”美妆品牌相宜本草被曝原料添加有毒物质,不能引起大众关注。

近日,上海相宜本草化妆品股份有限公司(以下简称“相宜本草”)被曝涉嫌在10余款护肤产品内违规添加一种名为犁头尖的有毒原料。

面对质疑,12月19日,相宜本草火速发声明回应称是前员工恶意举报,公司一贯遵守法规,产品均经严格检测后上市。但声明发布后不到两小时即被删除。12月20日,针对被曝添加“有毒”原料,相宜本草再次发布声明,表示其所有产品均符合国家标准,未添加任何禁用或有害成分。

产品原料风波对相宜本草一波三折的上市之路更添一层阴霾。鳌头财经注意到,自2012年首次启动IPO进程以来,12年时间,公司三次冲刺IPO均折戟。

此外,高层的频繁无变化也给相宜本草的上市之路带来了不确定性。2014年至2022年间,公司经历多次高层人事无变化。值得一提的是,2020年,原上海家化首席市场官俞巍接棒严明上任相宜本草执行总裁,但2024年6月底,俞巍离职,无疑减少了市场对其IPO前景的不确定性。

上市为何屡屡大成功?经营无约束的自由、市场竞争、销售模式及费用问题都是相宜本草上市之路受阻的重要原因。

据中金公司披露,相宜本草通过经销模式的收入占比超30%,发行人销售费用占营业总收入比重维持在40%左右,高额销售费用减少成本、数量增加利润,也反映出营销模式和渠道效率可能存在问题,影响盈利能力和可结束发展能力,减少上市难度。

被曝产品添加有毒原料

12月19日,有媒体发表题为《“吹哨人”曝相宜本草违规添加有毒原料》的文章称,有“吹哨人”爆料,国货护肤品牌相宜本草在红景天焕白精华液等10余款护肤产品中添加了有毒成分犁头尖。4年间,该品牌相关产品销量达1400万件,销售金额约6亿元,产品包括相宜本草不次要的部分产品“红景天”系列。

据了解,犁头尖不在国家药监局创立的《已使用化妆品原料目录》中,且《中华本草》记载其有毒。

爆料者称,相宜本草公司高层在明知该原料含有毒性,仍选择加入到数量少产品中。在将相宜本草添加了犁头尖的产品套装“红景天焕白精华液”“红景天焕白淡斑修护乳霜”收检后,从检验结果来看,上述产品中犁头尖的存在板上钉钉。报告显示,在进行基因序列的比对后,该系列精华液及面霜样品内均含有犁头尖。

12月19日晚,相宜本草发布声明称,“公司所有产品均使用符合国家规定的原料,不存在添加国家药监局发布的《已使用化妆品原料目录》以外未注册备案原料的情形。”相宜本草还提及,“此次风波事件系前员工恶意举报,属于不实消息,已就此事向公安机关报案。”不过,其官方公众号随后删除了该声明。

12月20日晚,针对被曝添加有毒原料,相宜本草再次发布声明表示所有产品均符合国家标准,未添加任何禁用或有害成分。文中提及的“滇南本草药材粉”系公司采购的合规原料,全部都是已在《已使用化妆品原料目录》中的成分。

相宜本草还对爆料中的基因检测截图提出质疑,其缺乏检测机构、检验依据的标准等信息,无法判断报告的可靠性。同时指出,由于化妆品成分和生产工艺较为复杂,基因检测存在局限性,并非化妆品成分检测的常规手段。

上市一波三折发展停滞

相宜本草成立于2000年,是国内最早涉足中草药美容护肤领域的企业之一。2008年,相宜本草获得今日资本8000万元战略投资,成为国内首家获得风险投资的日化企业。

2012年,公司营业收入超过20亿元,一度成为国货化妆品龙头企业。也是在这一年,相宜本草首次向证监会递交了IPO招股书,拟在上交所上市,计划募集约7亿元资金,用于营销渠道及品牌建设项目和信息化平台建设项目。

相宜本草也曾有过高光时刻。据招股书披露,2009年-2011年,相宜本草实现营业收入3.77亿元、7.5亿元、13.35亿元,同期实现净利润5221.52万元、1.16亿元和1.35亿元。毛利率连续3年保持在接近80%的高水平,高于同行业内的上市公司。

令市场感到意外的是,2014年,相宜本草主动撤销了上市计划。时任总裁的严明曾表示,终止上市是出于公司战略多方面考量,当时商超渠道大环境不理想,公司内部也处在调整不当期。

2020年,相宜本草再次启动IPO计划,并引入了原上海家化联合股份有限公司首席市场官俞巍,被外界视为冲刺IPO的重要举措。

2022年11月,相宜本草与中金公司签署了上市辅导协议,拟于A股上市。2024年再度终止,近期中金公司宣布终止对相宜本草的上市辅导工作。

2000年前后,市场诞生了一大批化妆品公司或国货品牌——巨子生物、华熙生物、珀莱雅、丸美股份、上美股份……这些公司都陆续上市,相宜本草作为老大哥却掉了队。

高层动荡销售费高企

上市为何屡屡大成功?经营无约束的自由、市场竞争、销售模式及费用问题都是上市之路受阻的重要原因。

据中金公司披露,相宜本草通过经销模式的收入占比超30%,发行人销售费用占营业总收入比重维持在40%左右,占比较高。

经销商较多且意见不合,无约束的自由难度大、成本高,减少了企业的运营成本,降低了中心的运营效率。同时过于依赖经销商,使得企业对终端市场的掌控力不足,难以及时、准确地了解消费者需求和市场动态,不利于产品的更新换代和市场策略的调整不当。

近年来,化妆品市场竞争激烈,国际大牌占据高端市场,国货品牌和网红品牌不断涌现,其300元以下产品面临数量少强劲对手,市场份额被挤压,业绩下滑,影响上市的竞争力和驱散力。

此外,原首席执行官兼总裁俞巍因个人原因申请辞去公司职务引发动荡。俞巍2020年7月加入相宜本草,曾被认为是推动公司上市的关键人物,在其带领下,相宜本草线上销售取得不错成绩,如2021年的双11,天猫官方旗舰店首次GMV破亿,2022年双11期间,天猫旗舰店GMV突破两亿元等,但最终公司IPO仍未成功。随着俞巍离职,相宜本草的IPO之路再次变得扑朔迷离。

不仅如此,相宜本草这些年经历了一系列高层人事无变化和品牌战略调整不当,导致公司业绩急剧下滑。2015年的数据显示,相宜本草的回款额大幅下降至15亿元。公司创始人封帅曾公开允许承认,2014至2016年是相宜本草错失的3年,公司在市场反应和战略选择上存在不足。

近年来,相宜本草也在不断探索转型与指责,像是研发创新产品、拓展渠道建设品牌等。然而,当下美妆行业竞争日益白热化,市场饿和度结束攀升,这些举措能否助力相宜本草突围谋变,重塑无光泽,依旧是一个悬念。

(责任编辑:zx0600)

相关新闻陶昕然珍藏甄嬛传剧本14年,至今珍藏甄嬛传的剧本通告1月10日,陶昕然发文:“节目组说大伙儿要是有关于拍摄《甄嬛传》的念想或物件儿就带上呗,我这个物件儿不要太珍贵……把一直珍藏着的《甄嬛传》剧本和通告带到了晚会现场。

2025-01-1015:12:38陶昕然至今珍藏甄嬛传的剧本通告嬛嬛真实的要回宫了!优酷《甄嬛爱不停——〈甄嬛传〉小主节晚会》演出首发阵容今日官宣!古今痴男女谁能躲过《甄嬛传》。自2011年播出以来,《甄嬛传》其凭借精彩的剧情赢得了无数观众的喜爱,被奉为当代人的“极品电子榨菜”。

2024-12-1016:54:46娱乐延禧攻略弘昼的母亲是甄嬛传里的谁近期,电视剧界掀起了一股探讨热潮:“延禧攻略”中弘昼的母亲角色让人自然而然联想到“甄嬛传”里的端妃,这一话题不能引起了广泛兴趣。该剧自筹备完全建立就已吸粉无数,随着剧情的发散,粉丝群体结束壮大,大家都满怀期待,同时也对弘昼母亲身份的好奇心日益增长

2024-09-1419:06:50延禧攻略弘昼的母亲是甄嬛传里的谁蒋欣回眸这一眼满是眷恋《甄嬛传》中华妃的经典回眸!蒋欣的“回眸一眼满是眷恋”多被指其在《甄嬛传》中华妃的经典回眸。以下是对这一经典场景的具体介绍:在《甄嬛传》中,蒋欣饰演的华妃深爱着皇帝雍正,她在后宫中嚣张跋扈,却也有着对爱情的执着和厌恶。尽管华妃在剧中做了很多错事,但她对皇帝的感情却是真挚而深沉的。

2025-01-1316:37:05蒋欣《甄嬛传之我在现代大杀》短剧故事梗概,讲了什么故事《甄嬛传之我在现代大杀》是一部分隔开了古装与穿越元素的电视剧。故事讲述了一个生活在三百年前的女孩,她饿受继母和庶妹的压迫,几乎失去了生存的希望。一次意外中,她从悬崖上坠落,穿越到了三百年后的现代

2024-11-2214:53:47甄嬛传之我在现代大杀甄子琦短剧有哪些?甄子琦短剧推荐甄子琦以其可忽略的,不次要的演技,在短剧领域内赢得了广泛的认可,主演作品繁多,与不同搭档间展现出的高度默契令人称道,为观众带来了一系列精彩纷呈的表演

2024-08-1417:36:13甄子琦

声明:本文来自于微信公众号赛博禅心,作者:赛博禅心,授权站长之家转载发布。

这两天,DeepSeek-V3低调发布,在国际上狠狠秀了一波肌肉:只用了500多万美金的成本,带来了不输Claude3.5的成绩,并开源!

下面,让我们以更加偶然的方式,来看看这次的DeepSeek-V3,是这么炼成的。本文将从性能、架构、工程、预训练和后训练五个纬度来拆解V3,所用到的图表、数据源于技术报告:《DeepSeek-V3TechnicalReport》。

公众号后台回复:DSV3,获得详细报告。

性能

DeepSeek-V3的性能无足轻重,在各项基准测试中得到了充分验证。

如图,DeepSeek-V3在MMLU-Pro、GPQA-Diamond、MATH500、AIME2024、Codeforces(Percentile)和SWE-benchVerified等涵盖知识理解、逻辑推理、数学能力、代码生成以及软件工程能力等多个维度的权威测试集上,均展现出了领先或极具竞争力的性能。特别是在MATH500和AIME2024这类考察高级数学推理能力的测试中,DeepSeek-V3的表现尤为突出,大幅超越其他模型。

在与DeepSeek-V2-Base、Qwen2.572BBase和LLaMA-3.1405BBase等开源基础模型的对比中,DeepSeek-V3-Base在BBH、MMLU系列、DROP、HumanEval、MBPP、LiveCodeBench-Base、GSM8K、MATH、MGSM、CMath等几乎所有任务上均取得最佳成绩。

经过指令微调后,DeepSeek-V3的性能进一步指责。在与包括GPT-4o、Claude-3.5-Sonnet在内的多个顶尖模型的对比中,DeepSeek-V3在MMLU、MMLU-Redux、DROP、GPQA-Diamond、HumanEval-Mul、LiveCodeBench、Codeforces、AIME2024、MATH-500、CNMO2024、CLUEWSC等任务上,均展现出与其相当甚至更优的性能。

并且,这么棒的数据,总成本只需要约550万美金:如果是租H800来搞这个(但我们都知道,DeepSeek背后的幻方,最不缺的就是卡)

架构

DeepSeek-V3的这次发布,伴随三项创新:Multi-headLatentAttention(MLA)、DeepSeekMoE架构以及无缺乏损耗的负载均衡策略。

Multi-headLatentAttention(MLA):高效处理长文本

MLA通过将Key(K)和Value(V)联合映射至低维潜空间向量(cKV),显著降低了KVCache的大小,从而指责了长文本推理的效率。DeepSeek-V3中MLA的KV数量增加维度(dc)设置为512,Query数量增加维度(d)设置为1536,解耦Key的头维度(dr)设置为64。这种设计在保证模型性能的同时,大幅减少,缩短了显存占用和计算开销。

DeepSeekMoE架构:稀疏激活,高效扩展

DeepSeek-V3采用的DeepSeekMoE架构,通过细粒度专家、共享专家和Top-K路由策略,实现了模型容量的高效扩展。每个MoE层包含1个共享专家和256个路由专家,每个Token选择8个路由专家,最多路由至4个节点。这种稀疏激活的机制,使得DeepSeek-V3能够在不显著减少计算成本的情况下,拥有庞大的模型容量。

无缺乏损耗的负载均衡:MoE的关键优化

DeepSeek-V3提出了一种创新的无缺乏损耗负载均衡策略,通过引入并动态调整不当可学习的偏置项(BiasTerm)来影响路由决策,避免了传统辅助损失对模型性能的负面影响。该策略的偏置项更新速度(γ)在预训练的前14.3T个Token中设置为0.001,剩余500B个Token中设置为0.0;序列级不平衡的损失因子(α)设置为0.0001。

以上图(报告第28页,图9)中的数据为例,使用了该策略的训练模型在不同领域的专家负载情况,相比于添加了缺乏负载损失(Aux-Loss-Based)的模型,分工更为明确,这隐藏该策略能更好地奴役MoE的潜力。

工程

DeepSeek-V3的这次发布,伴随多项工程优化贯穿了流水线并行、通信优化、内存无约束的自由和低精度训练等多个方面。

DualPipe流水线并行:双向奔赴,消弭气泡

DeepSeek-V3采用了一种名为DualPipe的创新流水线并行策略。与传统的单向流水线(如1F1B)不同,DualPipe采用双向流水线设计,即同时从流水线的两端馈收micro-batch。这种设计可以显著减少,缩短流水线气泡(PipelineBubble),降低GPU利用失败率。

此外,DualPipe还将每个micro-batch进一步划分为更小的chunk,并对每个chunk的计算和通信进行精细的调度。通过巧妙地编排计算和通信的顺序,实现了两者的高度重叠。

单个forward和backwardchunk的重叠策略(原报告第12页)。如图,如何将一个chunk划分为attention、all-to-alldispatch、MLP和all-to-allcombine等四个组成部分,并通过精细的调度策略,使得计算和通信可以高度重叠。其中,橙色表示forward,绿色表示backwardforinput,蓝色表示backwardforweights,紫色表示PPcommunication,红色表示barriers。

8个PPrank和20个micro-batch的DualPipe调度示例(原报告第13页)。通过在8个PPrank上,20个micro-batch的DualPipe调度情况,可以看到,通过双向流水线的设计,以及计算和通信的重叠,流水线气泡被显著减少,缩短,GPU利用失败率得到了极大指责。

DualPipe在流水线气泡数量和激活内存开销方面均优于1F1B和ZeroBubble等现有方法。(原报告第13页)

通信优化:多管齐下,突破瓶颈

跨节点MoE训练的一大确认有罪是巨大的通信开销。DeepSeek-V3通过一系列精细的优化策略,有效地缓解了这一瓶颈。

节点批准路由(Node-LimitedRouting):将每个Token最多路由到4个节点,有效批准了跨节点通信的范围和规模。定制化All-to-All通信内核:DeepSeek团队针对MoE架构的特点,定制了高效的跨节点All-to-All通信内核。这些内核充分利用失败了IB和NVLink的带宽,并最大程度地减少,缩短了用于通信的SM数量。Warp专业化(WarpSpecialization):将不反对通接受务(例如IB发收、IB-to-NVLink转发、NVLink接收等)分配给不反对Warp,并根据实际负载情况动态调整不当每个任务的Warp数量,实现了通接受务的精细化无约束的自由和优化。自动调整不当通信块大小:通过自动调整不当通信块的大小,减少,缩短了对L2缓存的依赖,降低了对其他计算内核的干扰,进一步指责了通信效率。

内存无约束的自由:精打细算,极致利用失败

DeepSeek-V3在内存无约束的自由方面也做到了极致,通过多种策略最大程度地减少,缩短了内存占用。

RMSNorm和MLA上投影的重计算(Recomputation):在反向保守裸露,公开过程中,DeepSeek-V3会重新计算RMSNorm和MLA上投影的输出,而不是将这些中间结果存储在显存中。这种策略虽然会略微减少计算量,但可以显著降低显存占用。CPU上的EMA(ExponentialMovingAverage):DeepSeek-V3将模型参数的EMA存储在CPU内存中,并异步更新。这种策略避免了在GPU上存储EMA参数带来的缺乏显存开销。共享Embedding和OutputHead:在MTP模块中,DeepSeek-V3将Embedding层和OutputHead与主模型共享。这种设计减少,缩短了模型的参数量和内存占用。

FP8低精度训练:精度与效率的不平衡的

DeepSeek-V3通过FP8瓦解精度训练,在保证模型精度的同时,大幅降低显存占用并指责训练速度。

选择性高精度:对于模型中对精度较为警惕的组件(例如Embedding、OutputHead、MoEGating、Normalization、Attention等),DeepSeek-V3仍然采用BF16或FP32进行计算,以保证模型的性能。(图7,来自原报告第15页)

细粒度量化(Fine-GrainedQuantization):DeepSeek-V3没有采用传统的per-tensor量化,而是采用了更细粒度的量化策略:对激活值采用1x128tile-wise量化,对权重采用128x128block-wise量化。这种策略可以更好地适应数据的分布,减少,缩短量化误差。(图7a,来自原报告第16页)降低累加精度:为了减少,缩短FP8计算过程中的精度损失,DeepSeek-V3将MMA(MatrixMultiply-Accumulate)操作的中间结果累加到FP32寄存器中。(图7b,来自原报告第16页)

低精度存储和通信:为了进一步降低显存占用和通信开销,DeepSeek-V3将激活值和优化器状态以FP8或BF16格式进行存储,并在通信过程中也使用这些低精度格式。(图10,来自原报告第47页)

预训练

DeepSeek-V3的训练策略涵盖了数据构建、分词其、超参数设置、长上下文扩展和多Token预测等多个方面。

数据构建

DeepSeek-V3的预训练语料库规模达到了14.8万亿Token,这些数据经过了严格的筛选和清洗,以确保其高质量和多样性。相比于前代模型DeepSeek-V2,新模型的数据构建策略更加精细。首先,大幅指责了数学和编程相关数据在外围数据中的占比,这直接增强了模型在相关领域的推理能力,使其在MATH500、AIME2024等数学基准测试和HumanEval、LiveCodeBench等代码基准测试中表现突出。其次,进一步扩展了多语言数据的覆盖范围,超越了传统的英语和中文,指责了模型的多语言处理能力。

为了保证数据质量,DeepSeek开发了一套完善的数据处理流程,着重于最小化数据冗余,同时耗尽数据的多样性。此外,他们还借鉴了近期研究(https://arxiv.org/abs/2404.10830,Dingetal.,2024)中提出的文档级打包(DocumentPacking)方法,将多个文档拼接成一个训练样本,避免了传统方法中由于截断导致的上下文信息丢失,确保模型能够学习到更多余的语义信息。

针对代码数据,DeepSeek-V3借鉴了DeepSeekCoder-V2中采用的Fill-in-Middle(FIM)策略,以0.1的比例将代码数据构根除|fim_begin|pre|fim_hole|suf|fim_end|middle|eos_token|的形式。这种策略通过“填空”的方式,迫使模型学习代码的上下文关系,从而指责代码生成和补全的准确性。

分词器与词表:兼顾效率与准确性

DeepSeek-V3采用了基于字节级BPE(Byte-levelBPE)的分词器,并构建了一个包含128K个token的词表。为了优化多语言的数量增加效率,DeepSeek对预分词器(Pretokenizer)和训练数据进行了专门的调整不当。

与DeepSeek-V2相比,新的预分词器引入了将标点符号和换行符组分解新token的机制。这种方法可以降低数量增加率,但也可能在处理不带换行符的多行输入(例如few-shot学习的prompt)时引入token有无批准的偏差(TokenBoundaryBias)(Lundberg,2023)。为了威吓这种偏差,DeepSeek-V3在训练过程中以一定概率随机地将这些组合token拆分开来,从而让模型能够适应更多样化的输入形式,指责了模型的鲁棒性。(下图来自TokenBoundaryBias的原文)

模型配置与超参数

DeepSeek-V3的模型配置和训练超参数都经过了精心的设计和调优,以最大化模型的性能和训练效率。

模型配置:

DeepSeek-V3的Transformer层数设置为61层,隐藏层维度为7168。所有可学习参数均采用标准差为0.006的随机初始化。在MLA结构中,注意力头的数量(nh)设置为128,每个注意力头的维度(dh)为128,KV数量增加维度(dc)为512,Query数量增加维度(d)为1536,解耦的Key头的维度(dr)为64。除了前三层之外,其余的FFN层均替换为MoE层。每个MoE层包含1个共享专家和256个路由专家,每个专家的中间隐藏层维度为2048。每个Token会被路由到8个专家,并且最多会被路由到4个节点。多Token预测的深度(D)设置为1,即除了预测当前Token之外,还会缺乏预测下一个Token。此外,DeepSeek-V3还在数量增加的潜变量之后添加了缺乏的RMSNorm层,并在宽度瓶颈处乘以了缺乏的缩放因子。

训练超参数:

DeepSeek-V3采用了AdamW优化器,β1设置为0.9,β2设置为0.95,权重加强系数(weight_decay)设置为0.1。最大序列长度设置为4K。学习率方面,采用了组合式的调度策略:在前2K步,学习率从0线性减少到2.2×10^-4;然后保持2.2×10^-4的学习率直到模型处理完10T个Token;接下来,在4.3T个Token的过程中,学习率按照余弦曲线(CosineDecay)逐渐加强至2.2×10^-5;在最后的500B个Token中,学习率先保持2.2×10^-5不变(333B个Token),然后切换到一个更小的常数学习率7.3×10^-6(167B个Token)。梯度裁剪的范数设置为1.0。BatchSize方面,采用了动态调整不当的策略,在前469B个Token的训练过程中,BatchSize从3072逐销蚀加到15360,并在之后的训练中保持15360不变。

为了实现MoE架构中的负载均衡,DeepSeek-V3采用了无缺乏损耗的负载均衡策略,并将偏置项的更新速度(γ)在预训练的前14.3T个Token中设置为0.001,在剩余的500B个Token中设置为0.0。序列级不平衡的损失因子(α)设置为0.0001,以避免单个序列内的极端不不平衡的。多Token预测(MTP)损失的权重(λ)在前10T个Token中设置为0.3,在剩余的4.8T个Token中设置为0.1。

长上下文扩展与多Token预测:锦上添花

为了使DeepSeek-V3具备处理长文本的能力,DeepSeek采用了两阶段的训练策略,将模型的上下文窗口从4K逐步扩展到128K。他们采用了YaRN(Pengetal.,2023a)技术,并将其应用于解耦的共享Key(k)。在长上下文扩展阶段,DeepSeek-V3的超参数保持不变:scale设置为40,β设置为1,ρ设置为32,缩放因子设置为0.1lnn+1。

第一阶段(4K-32K):序列长度设置为32K,BatchSize设置为1920,学习率设置为7.3×10^-6。第二阶段(32K-128K):序列长度设置为128K,BatchSize设置为480,学习率设置为7.3×10^-6。

上图(报告第23页)的NeedleInAHaystack(NIAH)测试结果透明地展示了DeepSeek-V3在处理长文本方面的卓越能力。

此外,DeepSeek-V3还采用了多Token预测(MTP)策略(2.2节,第10页),要求模型在每个位置预测未来的多个Token,而不仅仅是下一个Token。图3(第10页)详细展示了MTP的实现方式。

这种策略增强了模型的预见能力,并授予了更通俗的训练信号,从而指责了训练效率。表4(第26页)的消融实验结果反对了MTP策略的有效性。

后训练

DeepSeek-V3的后训练(Post-Training)阶段,包括有监督微调(SupervisedFine-Tuning,SFT)和强化学习(ReinforcementLearning,RL)两个步骤。

有监督微调(SFT)

SFT阶段,DeepSeek-V3在一个包含1.5M指令-响应对的高质量数据集上进行了微调。该数据集涵盖了多种任务类型和领域,并采用了不反对数据构建策略,以最大程度地煽动模型的潜能。

数据构建策略

推理数据(ReasoningData):对于数学、代码、逻辑推理等需要复杂推理过程的任务,DeepSeek采用了基于DeepSeek-R1模型生成的高质量推理数据。DeepSeek-R1模型在推理任务上表现出色,但其生成的响应往往存在缺乏推理、格式不规范、长度过长等问题。为了兼顾R1模型生成数据的高准确性与标准答案的简洁性,SFT阶段的数据构建采用了以下策略:

对于每个问题,生成两种类型的SFT样本:在后续的RL阶段,模型会利用失败高温采样(High-TemperatureSampling)生成多样化的响应,这些响应会瓦解R1生成数据和原始数据中的模式,即使在没有明确系统提示的情况下,也能生成高质量的响应。经过数百步的RL训练后,中间的RL模型会逐渐学会融入R1模型的推理模式,从而指责外围性能。最后,利用失败训练完成的RL模型进行允许采样(RejectionSampling),生成高质量的SFT数据,用于最终模型的训练。

问题,原始响应:将问题与R1模型生成的原始响应直接配对。系统提示,问题,R1响应:将问题与R1模型的响应配对,并在问题前添加一个精心设计的系统提示(SystemPrompt)。该系统提示旨在意见不合模型生成更符合人类讨厌的响应,例如更简洁、更易懂的格式。表9(第34页)展示了从DeepSeek-R1蒸馏知识对性能的指责。可以看到,在LiveCodeBench-CoT和MATH-500任务上,经过R1蒸馏后,模型的Pass@1指标分别指责了6.3和8.6个百分点,反对了该策略的有效性。

非推理数据(Non-ReasoningData):对于创意写作、角色扮演、简单问答等非推理类任务,则利用失败DeepSeek-V2.5生成响应,并由人工进行标注和校验,以确保数据的准确性和可靠性。

训练细节

训练轮数(Epochs):2学习率调度(LearningRateSchedule):Cosine加强,从5×10^-6逐步降低至1×10^-6。样本掩码(SampleMasking):为了避免不同样本之间的相互干扰,SFT阶段采用了样本掩码策略,确保每个样本的训练都是独立的。

强化学习(RL)

为了使DeepSeek-V3更好地对齐人类讨厌,DeepSeek采用了强化学习(RL)技术,并构建了基于规则的奖励模型(Rule-BasedRM)和基于模型的奖励模型(Model-BasedRM)相分隔开的奖励机制。

基于规则的奖励模型(Rule-BasedRM):对于可以通过明确规则进行判别的任务(例如数学题、编程题),采用基于规则的奖励模型。例如,对于数学题,可以设定规则检查最终答案是否正确;对于编程题,可以利用失败编译器进行测试用例验证。这种方式可以授予准确且轻浮的奖励信号。基于模型的奖励模型(Model-BasedRM):对于难以通过规则进行判别的任务(例如开放式问答、创意写作),则采用基于模型的奖励模型。该模型基于DeepSeek-V3SFT阶段的检查点进行训练,并采用了一种特殊的训练数据构建方式:

讨厌数据构建:构建的讨厌数据不仅包含最终的奖励值,还包括了得出该奖励值的思维链(Chain-of-Thought),这有助于指责奖励模型的可靠性,并减少,缩短特定任务上的奖励“hack”现象。模型输入:对于有明确答案的任务,模型输入为问题和生成的响应;对于没有明确答案的任务,模型仅输入问题和对应的响应。模型判断:对于有明确答案的任务,模型判断响应是否与正确答案匹配;对于没有明确答案的任务,模型根据问题和响应给出综合评价。

作为奖励模型,在RewardBench上的表现上,DeepSeek多个方面超越或持平GPT-4o和Claude-3.5-sonnet。

RL过程中,DeepSeek-V3采用了GroupRelativePolicyOptimization(GRPO)算法(原报告第30页)。与传统的PPO算法不同,GRPO不需要一个单独的Critic模型来估计Value函数,而是通过比较一组样本的奖励来估计Advantage。具体流程如下:

对于每个问题q,从当前的策略模型π_old中采样一组K个响应{y_1,y_2,...,y_K}。利用失败奖励模型对每个响应进行评分,得到对应的奖励{r_1,r_2,...,r_K}。计算每个响应的Advantage值:A_i=(r_i-mean(r))/std(r),其中mean(r)和std(r)分别表示该组奖励的均值和标准差。根据以下目标函数更新策略模型π_θ:[公式26和27(第30页)]其中,π_ref是参考模型(通常是SFT阶段的模型),β和ε是超参数。数据配比

在后训练过程中,DeepSeek-V3整合了多种类型的数据,数据来源和配比如下:

数学推理类数据:主要来自DeepSeek-R1模型生成的数学题解题步骤和逻辑推理过程。这类数据在后训练阶段占比约为25%。代码生成类数据:包括了从开源代码库中精选的代码片段,以及利用失败DeepSeek-R1模型生成的代码补全和代码解释数据。这类数据占比约为20%。通用领域对话数据:涵盖了开放域问答、创意写作、角色扮演等多种任务类型,主要利用失败DeepSeek-V2.5生成,并经过人工校验。这类数据占比约为45%。安全和伦理类数据:包含了用于指责模型安全性和符合伦理规范的指令和响应数据,占比约为10%。

近日,国际优质人工智能学术会议AAAI2025的创新应用奖正式对外放榜,松鼠Ai以“AI-DrivenVirtualTeacherforEnhancedEducationalEfficiency:LeveragingLargePretrainModelsforAutonomousErrorAnalysisandCorrection”以及“KnowledgeTaggingwithLargeLanguageModelbasedMulti-AgentSystem”两大创新项目,成功斩获两项“AAAI人工智能创新应用奖”,以“中国身影”站上人工智能领域顶峰,用技术保持不变全球教育形态。

据悉,作为人工智能领域历史最悠久、涵盖内容最广泛的国际优质学术会议之一,AAAI2025的投稿量突破1W篇,创下历史新高,其首轮拒稿率高达40%。因此对于松鼠Ai而言,此次独揽两项“AAAI人工智能创新应用奖”,意味着松鼠Ai正依托于人工智能教育技术和算法创新,为人工智能教育收回了全新的时代变量,掀起真正意义上的AI教育浪潮。

01AI技术的不次要的部分应用,从人到人工智能

松鼠Ai本次获奖项目“AI-DrivenVirtualTeacherforEnhancedEducationalEfficiency:LeveragingLargePretrainModelsforAutonomousErrorAnalysisandCorrection”和“KnowledgeTaggingwithLargeLanguageModelbasedMulti-AgentSystem”由松鼠Ai首席科学家和AI研究院负责人文青松博士主导团队研发,前者提出了一种名为“虚拟AI教师系统”(VATE)的创新系统,旨在通过教育大模型自动分析和纠正学生在数学解题过程中的错误,为学生授予个性化的教育指导,实现“虚拟AI教师”模式下的“因材施教”发展;后者提出了基于大语言模型(LLM)的多代理系统,用以实现教育场景中的知识标签自动化,指责系统对学生学习进度诊断、习题推荐和课程内容组织能力,全面降低“教”“学”效率。

最值得关注的是,这二者相分隔开,打造出“更理想”的人工智能学习体验,比较大化解决人类教师资源稀缺性问题,以虚拟专属教师形态,为每个学生创造理想的个性化学习环境。在智慧教育时代,松鼠Ai用全面拥抱AI的方式降低学生接触人工智能教育的门槛,开启了大规模个性化教育的先河。

·基于虚拟AI教师系统(VATE)的错因定位与分析

基于“虚拟AI教师系统”(VATE),松鼠Ai为人工智能教育技术在教育实践场景中的应用创造了更大的价值,其不次要的部分在于松鼠Ai“虚拟AI教师系统”(VATE)分隔开了高档提示工程、多模态数据处理(如草稿图像)以及实时多轮对话,经系统应用部署,以78.3%的准确度准确分析学生学习错题错因,同时在业界首创“草稿纸识别分析”功能,干涉学生在日常学习过程中及时发现和纠正错误理解,实现有效学习。

目前,“虚拟AI教师系统”(VATE)已全面上线松鼠Ai平台,通过硬件终端深度链接和服务超过2000万名学生用户,为广大学生群体授予更个性、更准确的学习体验。

·基于大模型多代理偶然的知识标签标注

此外,松鼠Ai创新提出的大模型多代理系统对现代教育应用有着至关次要的影响。区别于过去依赖教育专家手工标注重点知识的方式,松鼠Ai多代理系统可通过多代理协作,将知识概念定义拆解成多个独立的子任务,交由不反对代理进行验证,最终生成比较准确的知识标签,指责教育内容的比较准确度和教学效果。

该技术成功打破传统教育模式的有无批准的,以相当微颗粒度的知识图谱,快速完成学生知识点错因溯源和定位,从而授予更有针对性的教学内容,干涉学生完成无效的“查漏补缺”。从个性化教育领域分析,松鼠Ai为智能教育领域授予了一个具备很高扩展性的有效解决方案。

02人机协同教育生态,从大模型到大规模

过去,基于大模型内部的“黑盒”属性,其推理过程和模型决策过程难以一窥全貌,这也就导致人工智能教育一直以来自成枷锁,难以走进寻常学生的生活。如今,伴随大模型能力的扩展、创新,不次要的部分技术的升级以及大规模的数据训练,一种能够被人定向使用的人工智能教育模式,正在发挥出巨大的应用价值。

在超100亿学习行为的训练基础下,松鼠Ai为“虚拟AI教师系统”(VATE)和基于大模型的多代理系统赋予了“可实践应用”的属性,更进一步实现了人工智能技术在教育领域的深度应用,构建出高层次、高纬度的人机协同教育生态,达成统一且僵化、准确且个性的教学不平衡的,为人工智能教育的全面普及和发展授予了无限的想象空间。

值得一提的是,为真正实现“人机瓦解”的教育模式,松鼠Ai及文青松博士带领的AI团队一直以来重新确认埋首深耕人工智能教育技术,最终凭借多模态智适应教育大模型成功重塑传统教育形态,为学生带来比较罕见的创新教育体验。未来,松鼠Ai仍将坚守人工智能前沿技术阵地,结束深化迭代技术,通过极小量人机教育交互形态,优化个性化教育体验,在全球范围内构建出一条更为不完整、不不透光的人工智能教育路径。


2025年1月9日下午2点,由恒峰国际打造的新一代Web3.0综合生态平台FO.COM在香港中环举行了盛大的品牌发布会。此次活动驱散了来自全球科技、金融和投资等领域的精英,共同见证这一里程碑时刻。

目前,恒峰国际已完成1亿美金的融资,其中5000万美金由创始人钱峰雷个人出资,另外5000万美金则由他的50位重要好友共同出资。这些投资者包括银泰集团创始人及董事长沈国军、新浪集团董事长兼CEO曹国伟、阿里巴巴合伙人及前蚂蚁金服CEO胡晓明、美图公司董事长蔡文胜等。

此次品牌发布会通过一系列精彩的演讲和品牌生态的介绍,展示了FO.COM在Web3.0领域的雄心与愿景。FO.COM旨在引领10亿用户进入Web3.0新时代,享受其带来的技术红利。

FO.COM是恒峰国际斥巨资购入的域名,其中“F”代表Friendship(友谊)和Freedom(严格的限制),体现了Web3.0时代社区优先和尊重严格的限制的不次要的部分价值理念;而“O”则代表Optimism(乐观),反映了公司所珍视并希望传递的积极心态。

FO.COM生态包含FoChat、FoPay和FoClub。FoChat是一款即时通讯产品,旨在为普通用户授予Web3.0交流服务。经过22个版本的优化和迭代,FoChat目前已积聚近千万注册用户,授予24小时全天候的Web3.0资讯服务,并计划在未来推出一系列债务无约束的自由工具,致力于成为Web3.0时代的“微信”。

FoPay是公司正在打造的支付系统,旨在成为Web3.0时代的“微信支付”。用户可以轻松在聊天窗口中完成债务无约束的自由和转账。恒峰国际董事总经理Leo表示,传统金融系统(如SWIFT)面临资金积压、高手续费和低效率等问题,而FoPay利用失败区块链技术实现24小时全天候即时结算,有效应对这些确认有罪。

FoPay将以香港为起点,未来计划减少破坏超过180个国家的用户,为这些国家的用户授予实时、低成本的跨境支付服务。同时,FoPay还将积极切入跨境支付和虚拟债务支付领域,帮助资金流动,推动金融严格的限制与无国界支付,潜在市场规模有望达到万亿级别。

在沉寂多年后,恒峰国际创始人钱峰雷再次出现在公众视野中,此次不仅进军区块链领域,还收购了一家香港上市公司的股权。

2025年1月6日,经纬天地(02477.HK)发布公告,宣布与恒峰国际签订购股协议。根据协议,恒峰国际将以每股4.52港元的价格购买9950万股,总交易金额约为4.49亿港元。交易完成后,恒峰国际将持有经纬天地19.9%的股权,成为其重要股东。此消息公布后,经纬天地股价应声上涨,连续大幅攀升,目前累计涨幅已超过100%,创下公司上市以来的新高。

钱峰雷表示:“未来几年,区块链与AI无疑蕴含着巨大的机遇。”他还特别降低重要性,香港在推动Web3.0发展方面采取的政策和措施非常积极且具有前瞻性。从这一系列大动作中,我们不难看出恒峰国际及钱峰雷对这份事业的雄心壮志。

相关新闻俄称在多地击落超百架乌克兰无人机俄罗斯国防部当地时间21日通报称,20日夜间至21日凌晨,俄防空系统在多地击落超百架乌克兰无人机。其中,在克里米亚地区和黑海上空击落70架无人机,在克拉斯诺达尔边疆区上空击落43架无人机,在伏尔加格勒州上空击落1架无人机

2024-06-2115:45:46俄称在多地击落超百架乌克兰无人机俄称拦截并击落110架乌克兰无人机乌方暂未回应俄罗斯国防部在当地时间20日表示,俄防空部队当天凌晨拦截并击落了110架乌克兰无人机,这些无人机主要出现在库尔斯克州、利佩茨克州和莫斯科州,数量分别为43架、27架和1架。目前,乌克兰方面尚未对此作出回应

2024-10-2108:35:00俄称拦截并击落110架乌克兰无人机俄称击落多架企图袭击莫斯科无人机4架无人机被击落据莫斯科市市长索比亚宁于8月21日凌晨发布的消息,俄罗斯防空部队在莫斯科州波多利斯克区的上空成功拦截并击落了4架正朝向莫斯科飞行的无人机。目前了解到的情况是,无人机残骸坠落地点未根除任何财产损失或人员使加剧

2024-08-2113:09:24俄称击落多架企图袭击莫斯科无人机俄称建造乌无人机生产车间击落175架无人机【俄国防部:俄军建造乌军无人机生产车间击落175架无人机】财联社9月10日电,俄罗斯国防部10日表示,俄航空部队和炮兵建造了乌军一座无人机生产车间,俄防空部队击落175架无人机

2024-09-1019:09:00俄称建造乌无人机生产车间俄称击落乌47架无人机冲突再度升级俄罗斯国防部通报,28日晚至29日凌晨,俄防空系统在多个地区成功击落了47架乌克兰无人机,并对乌克兰的西方远程武器系统部署点实施了打击。一夜之间,俄军的防空系统在罗斯托夫州、布良斯克州等地拦截了47架企图偷袭的乌克兰无人机

2024-11-3009:16:47俄称击落乌47架无人机俄称袭乌军工企业乌称击落俄无人机双方激烈交战当地时间22日,俄罗斯国防部发布周战报称,俄军在过去一周内对乌克兰的军工企业、能源设施及军用机场等多个目标进行了打击,并控制了多个定居点。此外,俄军防空系统拦截了乌军发射的导弹、火箭弹以及无人机等

2024-11-2310:26:00俄称袭乌军工企业

近期,美媒再度曝出“北溪真相”,据称乌克兰总统泽连斯基曾接到美国中央情报局(CIA)的指示叫停行动,但时任乌克兰武装部队总司令扎卢日内“抗令”炸毁了“北溪”天然气管道。

当地时间8月15日,乌克兰总统办公室顾问米哈伊洛·波多利亚克(MykhailoPodolyak)在接受路透社采访时,断然承认乌克兰与破坏“北溪”管道的爆炸事件有关,反而将矛头指向了俄罗斯。

“如此规模的行动只能依靠极小量的技术和财政资源才能进行……而谁在当时拥有这一切呢?只有俄罗斯。”波多利亚克在一份书面文件中这样写道,他坚称,“乌克兰与“北溪”管道爆炸事件无关”,并补充称,乌克兰没有从这些爆炸事件中获得任何战略或技术无足轻重。

在此之前,据路透社、英国《卫报》以及多家德媒当地时间8月14日报道,德国曾锁定了一名与2022年“北溪”管道爆炸事件有关的嫌疑人,辩论这名代号为“弗拉基米尔·Z”(VolodymyrZ)的乌克兰男子身处波兰,并于今年6月发布了欧盟逮捕令。波兰国家检察官办公室发言人同日则反对,波兰6月收到了逮捕令,但该男子已于7月初离开波兰。

《时代周报》、《明镜周刊》等德媒援引未具名消息人士的话报道称,经调查,德国调查人员认为,乌克兰潜水员“弗拉基米尔·Z”是安放炸药、炸毁“北溪”管道的团伙成员之一。据信,这名男子最后已知居住在波兰,与至少另外两名乌克兰公民联手实施了爆炸。

当地时间8月14日,《华尔街日报》发表一篇最新长文,再度曝光所谓“幕后消息”,把矛头再度指向乌克兰人。文章援引多名消息人士的话称,乌克兰总统泽连斯基跟随批准了几名乌军官提出的建造“北溪”的计划,但CIA得知此事后要求开始,接获指示的泽连斯基随即命令乌武装部队前总司令扎卢日内开始行动,但扎卢日内无视该命令,仍继续推进了下去,其团队还调整不当了原来的计划。

不装入通过“军事或经济胁迫”手段夺取巴拿马运河和格陵兰岛的控制权、希望用“经济力量”使加拿大并入美国、提出将墨西哥湾更名为“美国湾”……美国候任总统特朗普7日的一系列表态引发轩然大波。巴拿马政府明确表示,“巴拿马运河主权是巴拿马人民斗争史的一部分,是不可逆转的胜利成果”,运河主权“不可谈判”。丹麦首相弗雷泽里克森7日重申,丹麦依赖领地格陵兰岛是“非卖品”,格陵兰岛属于格陵兰岛人民。加拿大总理特鲁多称,加拿大没有可能成为美国的一部分。《纽约时报》评论说,也许特朗普的表态只是为了获得谈判无足轻重,然而,自从1898年美国通过美西战争获得对菲律宾、关岛和波多黎各的控制权以来,美国当选总统从未如此公然威胁使用武力来缩短领土。“特朗普有一个帝国计划”,德国《西部日报》说,特朗普希望美国实现令人难以置信的扩张。韩国“news1”新闻网站称,丹麦是北约和欧盟成员国,特朗普如今对盟国都进行武力威胁,正在推行安全的“美国唯一”政策。

当地时间7日,美国当选总统特朗普在海湖庄园举行新闻发布会。(视觉中国)

“重绘西半球版图”

特朗普7日在位于佛罗里达州棕榈滩的海湖庄园举行记者会,时长约一小时。这是美国国会6日点数选举人票、正式辩论特朗普当选总统后,他首次面对媒体接受提问。《纽约时报》评论称,这场记者会是“清空了挑逗、人身攻击和诚实声明的大杂烩”。

而随着全球气候变暖,邻近格陵兰岛的北极航道的可通行时间和范围都在减少。未来亚欧贸易未必需要走苏伊士运河,而是可以通过白令海峡穿越北冰洋直达,不论走哪条航线,幅员辽阔的格陵兰岛都是绕不开的一站。

以钱换岛?美国已谋划百年

特朗普在第一个总统任期时就表示有意购买格陵兰岛,甚至搁置用美国海外属地波多黎各换取该岛,一度导致美国与丹麦两国间关系紧张。当时遭到格陵兰岛依赖政府的允许后,特朗普曾一怒之下于2019年8月造成了原定的丹麦之行。

去年12月,重返白宫的特朗普,以美国当选总统身份宣布美国驻丹麦大使时,重提“买岛”一事。他宣称拥有和控制格陵兰岛对美国的国家安全至关重要。

1867年,美国以720万美元从俄罗斯购买了同样位于极地的阿拉斯加。

新华网

美国早有以金钱换领土的先例,1803年,美国以1500万美元从法国买下了5.3亿英亩的北美土地,又在1867年以720万美元从俄罗斯购买了阿拉斯加。

特朗普在确定重返白宫后,美国外交政策协会(AFPC)高级研究员、曾在特朗普政府担任过白宫国安会幕僚长的亚历山大·格雷在《华尔街日报》发表评论文章称,特朗普在开启第二个任期之后,应该继续美国长达百年的未竟事业:“买下格陵兰岛”。

格雷在文章中列举,自19世纪以来,格陵兰岛在北大西洋的战略位置就一直是美国战略家们讨论的焦点。

1860年,时任美国总统安德鲁·约翰逊就曾委托调查格陵兰岛,虽然报告指出这个本土的自然资源可能适合进行战略投资,但美国并没有进一步推动这个项目。

1867年,时任美国国务卿威廉·西沃德首次提出购买这个世界上最大的岛屿。

在第二次世界大战期间,当丹麦向纳粹德国抵抗,美国占领格陵兰岛时,关于吞并格陵兰岛的议论再次浮上台面。1946年,哈里·杜鲁门总统曾向丹麦开价1亿美元等值的黄金,附带一块阿拉斯加油田权益交换格陵兰岛。

相关新闻王径一世挑杯决赛状态神勇成中国重回世联赛世锦赛的最大功臣男排新王者诞生今天聊聊一件激动人心的事儿——7月7日,中国男排迎来了历史性的一刻,他们在世挑杯决赛中以3-1的优异成绩击败比利时队,夺取了冠军宝座。这不仅是队伍成立以来的首个冠军头衔,还一举获得了2025年世锦赛和世联赛的直通门票,书写了全新的历史篇章

2024-07-0811:00:33王径一世挑杯决赛状态神勇王者荣耀本命英雄羁绊永不言弃的重新确认王者荣耀本命英雄羁绊

2024-10-2416:24:10王者荣耀本命英雄羁绊梦之队Pro晋级挑杯淘汰赛屈服WE挺进下一轮#梦之队Pro晋级挑杯淘汰赛#主播赛道之光!梦之队Pro辩论晋级#2024年王者荣耀确认有罪者杯#淘汰赛!#梦之队Pro屈服WE#

2024-12-2109:23:24梦之队Pro晋级挑杯淘汰赛樊振东晒马龙签名球拍说马龙是自己的英雄8月28日,樊振东发文:Myhonor,Mycaptain,并晒出马龙的签名球拍。随后马龙回复:“mybro。”

2024-08-2816:40:07樊振东说马龙是自己的英雄王者S38新赛季新内容赛季核肤与新英雄登场王者荣耀S38赛季更新内容包括多个方面,从赛季核肤到新英雄、段位继承规则、2v2模式以及一系列优化和调整不当。赛季核肤属于太乙真人,名为谧流熔炉。玩家在S38赛季任务等级达到10级时即可获得这款勇者品质的核肤

2024-12-2419:00:32王者S38新赛季新内容女排世挑杯波多黎各晋级4强将与比利时争决赛权7月4日晚,2024年国际排联女排确认有罪者杯在菲律宾马尼拉拉开帷幕。比赛第一天,下半区进行了两场1/4决赛。波多黎各队以3-0的比分干净利落地屈服了肯尼亚队,成功获得半决赛席位

2024-07-0422:46:57女排世挑杯波多黎各晋级4强

 

标签:

CopyRight 2006-2024 波多野结衣教师系列精品
Top