从整个互联网行业的发展来看,计算技术的发展推动着业务场景的丰富,而业务场景反过来也在驱动计算技术不断变革,如何拉通场景和计算力是成功的关键。这对于腾讯这种超大规模数据中心用户更是如此,更快速的交付、更贴近业务的产品,意味着更强大的市场开拓能力和更稳固的抗风险能力。
过去这一年,基于浪潮创新的JDM模式,依托浪潮面向大规模数据中心的供应链整体交付能力和产品研发创新能力,浪潮实现了对腾讯产品需求的快速响应和供货及时率的稳固提升。此次,浪潮荣获腾讯服务器"优秀合作伙伴奖",从侧面印证着JDM在大规模数据中心的价值,未来JDM的模式或将对整个中国服务器产业产生更加深远的影响。

2017年度腾讯供应商大会
根据腾讯全球合作伙伴大会提到的最新数据,截至2017年9月,微信和WeChat合并月活跃用户数达 9.8 亿。对于微信和它的用户来说,微信早已超出了"即时通讯"的概念,从连接人逐渐扩展为连接人和服务。而且不止于微信,艾瑞发布的中国APP榜单中,腾讯系APP占据4席,且月活数遥遥领先···
业务应用的数量和体量的快速发展,驱动着数据中心规模的高速增长,同时导致腾讯对于服务器供应商的选择十分严格。短短2年多时间,浪潮就成为最重要的供应商之一,这其中原因为何?

浪潮荣获腾讯2017年度优秀供应商奖
从买卖到联合创新,合作快速深入
从2015年正式入围腾讯,到2017Q3浪潮成为腾讯战略供应商,双方在商务上的合作持续高速推进。
今年,基于浪潮创新的JDM模式,浪潮与腾讯的合作进一步深入,双方从产品开发、生产制造、运输交付、服务和运维等方面的不断精进和完善。
研发和供应能力得到全面认可
对于腾讯这种体量的超大规模互联网公司而言,如何快速的供应并提供更适合业务的产品,是影响用户体验的两大重要因素。2017年,在JDM模式下,浪潮与腾讯建立了定期沟通、滚动预测机制和供应链平台的对接,在上游市场整体供应情况不佳的大背景下,通过完善的机制和高效的交流,浪潮的按时供货率稳固提升,为腾讯业务高速发展奠定了基础。
同时,全新的JDM模式让浪潮和腾讯的技术合作阶段前置,从产品的规格确定阶段开始,腾讯就深度参与其中。并通过"基础模块+可变模块"的模块化产品开发模式,实现客户产品需求的快速响应,极大加快产品研发的速度,提升硬件产品与业务应用的适配性。
通过JDM模式,浪潮的研发人员不仅深入到了用户的业务中去,同时用户也会深入了解浪潮的运营,使得双方在需求端、研发端、采购端、品控端、生产端、交付和服务端的全面对接,实现产业链的全面融合,提高业务响应与资源协作性,和用户之间的关系从服务变成了共生。
在近3年的合作中,浪潮为腾讯开发出专属定制服务器、整机柜级存储资源池化方案、创新AI计算产品等,加速了腾讯数据中心技术的积累和升级。
以JDM加速服务器产业发展
整个计算技术的发展离不开业务场景的驱动,业务场景反过来会驱动计算技术不断往前变革。在这个过程中JDM模式,将一直会为未来的技术创新提供一种方法论,和新的技术创新"试验田"。
在JDM模式下,浪潮先后成为腾讯、阿里巴巴、百度的核心战略供应商,在技术、产品、生产、交付、服务等全产品流程深化合作,推出SAS Switch存储资源池化方案、SR-AI整机柜服务器等具有前沿性的创新产品,同时在供应链敏捷交付、工厂智能化生产、更高效的定制化客户服务等方面进行尝试和实践。未来,浪潮这种JDM模式将对整个中国服务器产业的未来产生更加深远的影响。
目前,浪潮的云服务器销量、销售额已跻身全球市场第一,根据全球权威数据调研机构Gartner公布2017年第三季度全球服务器的市场报告显示,浪潮服务器进入全球前三,并再次蝉联中国市场第一。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。