最近一段时间,我们基本上没各种气候变化的新闻所包围,比如热浪席卷我国大部分地区,全球其他地区也遇到了类似的情况。
解决人类气候变化的问题,需要我们做出多个方面的努力,其中科技将会扮演越来越重要的作用。
作为一家科技公司,英特尔致力于利用科技去实现可持续发展,并提出了面向未来的RISE战略,从多维度构建一个赋能、包容、可持续的世界。
英特尔最近也承诺,到2030年在全球业务中百分之百地使用可再生电;到2040年,英特尔在全球运营中,温室气体要实现净零排放的目标。
英特尔公司高级首席工程师、数字城市解决方案事业部全球首席技术官、物联网事业部中国区首席技术官张宇博士告诉记者,在产品设计和技术创新方面,英特尔持续推动绿色计算。“除了我们自己利用技术减少碳足迹,我们还在帮助合作伙伴实现绿色转型,这就包括我们和百度的合作。”
软硬合作 英特尔和百度的绿色创新实践
在以“AI深耕,万物生长”为主题的百度世界大会2022上,英特尔与百度分享了双方以“绿色、低碳”为起点的战略构想、关键技术及实践经验。
其中,英特尔一直在为开源开放的深度学习平台百度飞桨(PaddlePaddle)提供有力支持。英特尔OpenVINO工具套件可助力百度飞桨深度学习框架实现模型性能的优化升级,为多种深度学习模型的推理速度带来显著提升,从而使其更高效地应用在各个垂直领域中,为企业降本增效。
“PaddlePaddle的中文名称叫飞桨,我把和百度的合作比喻成划船的左桨和右桨,只有左桨和右桨协调配合才能够真正推动开发者在人工智能发展道路上破浪前行。”张宇说。
从模型的构建到优化,再到最终部署整个开发链条,OpenVINO与PaddlePaddle的合作给开发者带来极致的开发体验。比如OpenVINO的模型优化器能够直接对PaddlePaddle所提供的模型和所用到的算子直接进行优化,并且把优化之后的结果转变成IR的中间表示文件,这样可以极大减少开发流程、简化开发操作,为开发者带来更好的开发体验。
在部署方面,OpenVINO中所带的推理引擎能够实现即训即用,可以把我们已经优化好的PaddlePaddle转化的IR文件,通过推理引擎部署到不同CPU平台之上执行推理操作。
张宇还特别指出,针对绿色计算,在OpenVINO全新版本中也进行了功能增强,例如OpenVINO提供了一个AUTO plugin的插件,这个插件可以帮助开发者自动识别其真正部署的硬件平台的硬件资源,把相应软件动态分配到最适合的硬件资源上执行推理操作。
与此同时,基于英特尔至强可扩展处理器,英特尔与百度开展了CPU定制合作,可以更好地匹配百度的需求、适应百度的工作负载。英特尔的CPU定制合作专为特定的操作模式而量身打造,根据客户不同的需求,按照功率、热量、核心数量、I/O和其他功能加以区分。
张宇解释说,与用户工作负载最匹配的解决方案往往是最高效的解决方案,所以我们需要对工作负载进行画像。实现最佳的性能功耗比,最好的办法就是为特定的工作负载指定最适合的处理器。“我们和百度的CPU定制合作就是遵循这样的思路,处理器的参数可以自定义配置,匹配不同的应用场景和工作负载。定制化处理器使英特尔处理器产品和用户负载画像更好匹配,减少客户运营过程中的碳足迹。”
英特尔一直在拓展传统意义上通用处理器的概念,使得这些通用处理器更好地适配现在主流的工作负载和主流的应用。例如第12代酷睿处理器采用了能效核和性能核设计,相对来说比较轻量化的工作负载完全就可以用能效核来处理,这样可以达到更高的性能功耗比。
张宇表示,英特尔一方面在现有产品线里通过融合架构支撑更多工作负载;另一方面是在产品线当中增加软件可定义的芯片,满足用户对于计算和对于网络通讯、存储等多样化的需求。“因为只有最适合的处理器架构,才能够降低功耗,从而提高性能功耗比,最终真正实现绿色低碳的目标。”
端到端的视角看绿色计算
数字化转型需要的是以软件定义为基础的端到端数字基础架构,从计算、通讯到存储,从前端到后端,从硬件到软件,一个综合的技术需求。
基于此,英特尔把原来的物联网事业部、网络产品事业部和连接事业部进行重组,形成了网络与边缘事业部(NEX)。
绿色转型不仅是前端边缘的概念,它贯穿边缘、网络和数据中心,英特尔提供了全面的硬件和软件技术,帮助用户实现绿色低碳的目标。
“我们的最终目的是构建一个可持续发展的社会,真正实现可持续发展的数字化转型。我们会持续推动绿色计算、构建端到端的基础设施计算通讯和存储的产品与解决方案给到用户。”张宇最后说。
展望未来,英特尔在产品设计、路线图制定方面紧跟用户步伐,通过处理器的更新和迭代,不断提升处理器的性能以及性能和功耗比。
同时英特尔与产业链伙伴密切配合,在底层技术和上层应用之间做出最好的匹配,使技术的效能可以发挥到极致,助力加速各行各业绿色转型、升级的步伐,以实际行动积极践行宏旨:创造改变世界的科技,造福地球上每一个人。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。