在Build 2020大会上,微软不仅更新了Teams和Edge浏览器,还宣布了新的超级计算机。正如该公司在博文中提到的,这台超级计算机是与OpenAI合作为OpenAI打造的,并托管在微软的Azure平台上。值得补充的是,OpenAI和微软去年建立了合作关系,共同开发超级计算技术。
据说每台GPU服务器都有超过285,000个CPU内核,10,000个GPU和每秒400千兆的网络连接。微软表示,它也进入了超级计算机500强的名单。
基于Redmond的科技巨头认为,这是构建下一代超大型AI模型和基础设施的第一步,为其他组织和开发者培训这些模型。
微软首席技术官凯文凯文斯科特说:“这些机型令人兴奋的是,它们将实现广泛的功能。”斯科特认为,潜在的好处远远超过人工智能模型的狭隘进步。“它是关于能够一次完成自然语言处理中的一百件令人兴奋的事情和计算机视觉中的一百件令人兴奋的事情。当你开始看到这些感知领域的结合,即使是现在,你也会有一个困难的新应用。”
虽然机器学习专家之前做过单独的更小的AI模型,但是他们可以学习单一的任务,比如语言之间的翻译、识别对象、阅读文本以识别电子邮件中的关键点等。微软认为单一的大型AI模型可以更好地执行任务。
“作为全公司大规模AI计划的一部分,微软开发了自己的大型AI模型家族,即微软图灵模型,该模型已被用于改善Bing、Office、Dynamics等生产力产品的许多不同语言理解任务。”
为了训练这些大型AI模式,微软建造了超级计算机。“训练大规模AI模型需要先进的超级计算基础设施或通过高带宽网络连接的最新硬件集群。它还需要工具来训练这些互联计算机之间的模型。”
标签: