微软Build大会全面拥抱人工智能:Azure Machine Learning以及更多

微软是否需要证明人工智能对其成功,甚至是Windows的成功都至关重要?今年的开发者大会给出明确答案。

至顶网软件频道消息: 微软是否需要证明人工智能对其成功,甚至是Windows的成功都至关重要?今年的开发者大会给出明确答案。

微软Build大会全面拥抱人工智能:Azure Machine Learning以及更多

在最初几届微软Build大会上,一切内容皆以Windows为绝对核心。但经过多年发展,Build大会的涵盖范围不断扩大,如今已经成为微软旗下最为广泛的年度开发者盛会。今年的Build大会于西雅图召开,其中满载与数据及人工智能技术相关的公告与演示。事实上,事实证明数据与人工智能技术不仅决定着微软的命运,甚至连Windows的未来都将高度依赖于二者。

在人工智能方面,本次大会带来了海量资讯,我们甚至不知该从何说起。幸运的是,微软公司的Matt Winkler发布的个人简报帮助我们更深入了将人工智能公告串连起来,让我整理出比较顺畅的说明思路。

我对AMLHAM抱有深厚兴趣

首先让我们从最复杂,但可能也是最有趣的部分谈起:这就是此次公布的Azure Machine Learning硬件加速模型(即AMLHAM)预览版本。请注意,微软公司并没有发布官方的缩写方式,但我觉得这样能够节省一点篇幅。

AMLHAM是微软公司内部项目Brainwave带来的直接成果,且完全植根于现场可编程门阵列(简称FPGA)硬件技术。下面,让我们对这些术语进行一一解读。

FP……什么来着?

FPGA,这是一种可编程芯片——具体来讲,这类芯片允许客户对其线路走向进行编排。由于此芯片由大量逻辑门构成,而且编程不再需要在制造车间内完成,而可由客户自行执行(也就是‘现场’说法的由来),也就成了所谓“现场可编程门阵列”。

由于FPGA并非针对特定应用进行硬性线路设计,因此其制造工艺比专用集成电路(简称ASIC)通用性更强且成本更低。然而,由于自定义编程当中实现的算法仍然以硬件为基础,因此与纯软件实现方式相比,FPGA能够显著提升算法性能。事实证明,机器学习算法也属于FPGA可加速的算法范畴。正因为如此,我们可以基于FPGA架构部署机器学习模型,从而构成所谓Azure Machine Learning硬件加速模型。

如何处理代码?

但是,我们该如何对FPGA进行编程?事实证明,这项工作在难度上甚至与设计芯片差不多。而Brainwave项目正是为了解决这个难题而生:其能够采用深度学习模型,并将其编译成编程FPGA以实现模型所需要的指令。

微软公司表示,FPGA的模型加速性能实际上要比GPU还快一点,因此AMLHAM有可能构建起一套速度极快的AI基础设施。此外,其使用成本也更为低廉:微软公司表示,FPGA加速模型的性价比要比传统解决方案高出5倍。

迈出第一步

在初始阶段,AMLHAM还无法将任意深度学习模型汇编至FPGA当中。相反,其提供FPGA加速下的ResNet50栻工,可用于各类图像处理应用。当然,这还仅仅只是第一步。

顺带一提,Google Cloud Platform的云TPU同样提供硬件加速型模型,但TPU仅针对谷歌自家的TensorFlow深度学习框架,且无法在其它算法库中广泛使用。在另一方面,AMLHAM则拥有框架中立性优势。

您的工具包即将到达

除了基于AMLHAMResNet50模型之外,微软公司还推出了用于视觉、文本与预测处理的Azure Machine Learning工具包”预览。这些工具包既非配备简单API的完整模型,亦非原始算法(不像是CNTKTensorFlow中提供的那些算法)。相反,其中提供的是专门面向特定应用的定制化模型。

举例来说,您可以利用Scognitive Service视觉服务识别物、动物以及事物对象,面通过扫描照片发现其中的小狗。与此不同,视觉工具包则更进一步,能够根据小狗用例进行定制化,而后扫描照片并识别出其中的具体小狗品种。这些工具包将以Azure Machine Learningpip可安装扩展方式提供。

还有更多

除了以上公布的预览版之外,第一天的主题演讲还展示了一系列人工智能技术突破:

  • Azure Machine Learning/物联网集成,展示了如何在边缘(物联网设备上)实现机器学习、评分与推断——这意味着人工智能将不再仅仅立足于云端。
  • 新的Azure Machine Learning SDKHyperparameter Tuning(即超参数调整,允许对机器学习算法中的参数值进行自动优化与设置)。
  • 可将Azure Machine Learning模型部署在Azure容器实例、Azure Kubernetes服务以及Azure Batch AI当中,从而实现训练与评分。
  • 一套用于实验管理的Web托管用户界面,其可移除对独立Azure ML Workbench应用的依赖性。
  • 利用之前提到的SDKAzure DatabricksAzure Machine Learning加以整合,从而立足Azure Machine Learning环境对基于Spark MLlib的机器学习模型进行训练与部署。

当然,还有Cosmos DB……

接下来,微软公司还针对其基于云的全球分布式多模数据库Azure Cosmos DB发布了一系列公告。

在我看来,其中最重要的两项公告是该数据库将能够在全球范围内实现“多主”功能,同时对各组容器进行吞吐量调配。

其中多主功能允许用户在各个服务区进行写入与同步,同时保持数据一致性。顺带一提,这项功能绝对非同小可。一旦此项功能全面投入使用,微软可能会利用其夺取原本被Amazon DynamoDB以及Google Cloud Spanner所占据的市场份额。

调配功能允许用户为数据库集中分配吞吐量资源,而不必再针对各独立表执行此类操作。如此一来,Cosmos DB将能够在小型数据库场景下实现更低使用成本,这是因为每个表所需要的最小吞吐量乘以数据库内的表总数之后,最终结果往往要远高于实际需要的总体预配置吞吐量。以组为单位进行容器吞吐量设置很好地解决了这个难题,同时亦有助于推动更大规模的Cosmos DB采用,因为各单一表的吞吐量开销将不再带来夸张的整体成本支出。

重磅内容很多,但我们也需要通用版本除了预览版之外,微软方面此次发布了三项全新Cosmos DB功能的通用版本:

  • 一套批量执行器库
  • 一个异步Java SDK
  • 一个VNET服务端点

在一周前微软公布的第三季度周报当中,微软公司CEO Satya Nadella指出,Cosmos DB的年化收入已经超过1亿美元,且这一目标的实现在一年之内即告实现。他同时表示,他“从未见到过发展如此迅速的此类规模化产品”。

这确实令人印象深刻,但Cosmos DB仍有很长的道路要走。此次Build大会应该对此有所帮助,新的配置模式将给更多客户带来经济收益,同时亦将鼓励开发人员参与到项目贡献当中。

奔跑吧,人工智能!人工智能距离真正成熟同样还有漫长的距离,Azure Machine Learning平台在很多方面也仍然不够成熟、不够完善(当然,其它竞争产品也好不到哪去)。不过如今的公告正陆续出炉,并帮助微软实现Azure旗下Cognitive ServicesMachine Learning与分析技术的统一。当这项统一工作完成之后,相信其采用率将得到显著提升。

因此,根据今年的情况来看,微软选择Build”为自己的大会命名显得非常合适。


 

来源:ZDNet

0赞

好文章,需要你的鼓励

2018

05/09

10:12

分享

点赞

邮件订阅