onnx合作伙伴研討會首次在中國舉行 微軟全力支持開放互操作人工智能發(fā)展
2018-11-27 15:04來源://
原標(biāo)題:onnx合作伙伴研討會首次在中國舉行 微軟全力支持開放互操作人工智能發(fā)展
onnx合作伙伴研討會本周在北京微軟大廈舉行。這是onnx開源項目成立以來,首次在中國舉辦落地活動。微軟與本土合作伙伴一起,共同分享了onnx項目的最新進展。
onnx(openneural network exchange)“開放神經(jīng)網(wǎng)絡(luò)交換”項目是由微軟共同發(fā)起、旨在為人工智能互操作及創(chuàng)新研究提供全面支持的開放生態(tài)系統(tǒng),其目標(biāo)是讓人工智能更加觸手可及,并為更多人創(chuàng)造價值。這一開放標(biāo)準(zhǔn)可以用來表示不同的機器學(xué)習(xí)模型,讓人工智能開發(fā)者根據(jù)任務(wù)的需要選擇最合適的開發(fā)框架,并讓硬件廠商進行最佳優(yōu)化。

微軟項目總經(jīng)理
venky veeraraghavan
微軟希望能充分發(fā)揮人工智能的巨大潛能,幫助增強人類能力。但開發(fā)人工智能,特別是構(gòu)建深度學(xué)習(xí)模型并非易事,甚至對于很多數(shù)據(jù)專家來說,這都是專業(yè)性要求極高、令人望而生畏的工作。微軟相信,我們可以通過建設(shè)一個開放的人工智能生態(tài)系統(tǒng),讓每一位開發(fā)者,在任何平臺上,利用任何語言,發(fā)揮出人工智能的最大潛力,讓人工智能觸手可及,并且真正為人們創(chuàng)造價值。為了實現(xiàn)這一目的,微軟提供了多樣化的第一方平臺和工具,例如azure機器學(xué)習(xí)服務(wù),它能極大簡化和加速構(gòu)建、訓(xùn)練部署機器學(xué)習(xí)模型的過程。與此同時,微軟也在敞開胸懷,與其它組織積極分享我們的愿景,共同助力人工智能社區(qū)的健康發(fā)展。
onnx,快速成長的開放生態(tài)系統(tǒng)
去年9月,微軟宣布與facebook、aws共同創(chuàng)立onnx開放神經(jīng)網(wǎng)絡(luò)交換格式。短短一個月內(nèi),這個開放人工智能生態(tài)系統(tǒng)便迎來了amd、arm、華為、ibm、英特爾、高通等行業(yè)領(lǐng)軍企業(yè)的加盟。目前,已經(jīng)有超過20家全球企業(yè)宣布支持onnx。

微軟人工智能平臺團隊首席項目經(jīng)理
prasanth pulavarthi
“微軟在azure上為開源機器學(xué)習(xí)框架提供了一等一的支持,同時我們也在與其它廠商展開廣泛合作,共同推進人工智能社區(qū)的發(fā)展?!蔽④浫斯ぶ悄芷脚_團隊首席項目經(jīng)理prasanth pulavarthi表示,“微軟攜手facebook和aws共同發(fā)起了onnx,通過支持多種機器學(xué)習(xí)模型,它將為一個開放生態(tài)打造堅實基礎(chǔ),讓開發(fā)者和數(shù)據(jù)科學(xué)家自由選擇適合任務(wù)需求的框架,讓框架設(shè)計者更專注于增加創(chuàng)新能力,讓硬件廠商更好地進行優(yōu)化設(shè)計。”
onnx是一個開源項目,它帶來的互操作性可以讓各種開發(fā)創(chuàng)意更快速地投入生產(chǎn)環(huán)境。利用onnx,數(shù)據(jù)科學(xué)家可以為其工作選擇最適合的框架,而開發(fā)者只需花費更少的時間就能訓(xùn)練出適合生產(chǎn)環(huán)境的機器學(xué)習(xí)模型,并且將其部署到云端或者是邊緣。目前,在多種人工智能開發(fā)框架中都能創(chuàng)建onnx模型,包括pytorch、chainer、微軟認知工具包(cntk)、mxnet、ml.net、tensorflow、keras、scikit-learn,這個列表還在不斷增加。此外,為onnx模型實現(xiàn)可視化和加速的開發(fā)工具生態(tài)系統(tǒng)也已初具規(guī)模,已經(jīng)出現(xiàn)了針對典型場景預(yù)先訓(xùn)練的onnx模型。
“中國是全球最具創(chuàng)新活力的市場之一,這里匯聚了眾多才華橫溢的人工智能開發(fā)者和數(shù)據(jù)科學(xué)家,還有大力支持onnx的企業(yè)級合作伙伴?!蔽④洠▉喼蓿┗ヂ?lián)網(wǎng)工程院常務(wù)副院長、微軟全球杰出工程師張祺博士表示,“onnx合作伙伴研討會第一次來到中國讓我們非常興奮,我們希望借此機會充分展示這一開放互操作人工智能生態(tài)系統(tǒng)的優(yōu)勢,并真正幫助中國的開發(fā)者和數(shù)據(jù)科學(xué)家發(fā)掘人工智能潛力,共同贏得數(shù)字化轉(zhuǎn)型的發(fā)展機遇?!?/p>
微軟全力支持onnx發(fā)展:onnx runtime和onnx.js
微軟不但是onnx的聯(lián)合創(chuàng)始人,同時也是全力支持onnx發(fā)展的頂級技術(shù)貢獻者。例如,windows機器學(xué)習(xí)(winml)為onnx提供了操作系統(tǒng)層面的支持,可利用任何支持direxctx的gpu為其提供硬件加速,現(xiàn)在從服務(wù)器到物聯(lián)網(wǎng)的各個版本的windows都能提供這項功能。
onnx runtime現(xiàn)已開放預(yù)覽,這是專為onnx格式機器學(xué)習(xí)模型設(shè)計的高性能推理引擎。onnx runtime兼容onnx 1.2版本,自帶支持cpu和gpu的python包,可在azure機器學(xué)習(xí)服務(wù)或任何運行ubuntu 16的linux設(shè)備上進行推理運算。
onnx runtime的發(fā)布進一步擴展了微軟對onnx的支持,讓onnx模型推理可以在多種平臺和設(shè)備上運行。onnx runtime全面覆蓋和支持onnx定義的所有運算符。出于對擴展性與性能表現(xiàn)的特別關(guān)注,onnx runtime能為一系列不同平臺和硬件的組合提供多種定制化的加速器,從而保證為推理運算提供最佳的整體性能表現(xiàn)。
插件式的執(zhí)行者界面意味著onnx runtime可以快速適應(yīng)軟件和硬件的改進。執(zhí)行者界面是硬件加速器向onnx runtime報告其性能的標(biāo)準(zhǔn)方式。英特爾、英偉達都在積極將onnx runtime整合到他們的硬件加速器中,目前英特爾的mkl-dnn、ngraph編譯器以及英偉達優(yōu)化的tensorrt推理引擎都已完成整合。
onnx.js讓web開發(fā)者可以直接在瀏覽器中運行訓(xùn)練好的onnx模型,不但能夠減少服務(wù)器到端的通信需求、保護用戶隱私,還提供了免安裝、跨平臺的瀏覽器內(nèi)置機器學(xué)習(xí)體驗。onnx.js支持cpu和gpu運行,可以借助一系列優(yōu)化技術(shù)減少cpu和gpu間的數(shù)據(jù)傳輸,減少gpu處理的循環(huán)次數(shù),從而將性能推向最大化。
利用azure簡化人工智能開發(fā)
在全力支持onnx建設(shè)開放互操作人工智能生態(tài)系統(tǒng)的同時,微軟也在全力將azure打造成最佳人工智能云平臺,從預(yù)先訓(xùn)練好的模型到幫助構(gòu)建模型的云服務(wù),azure提供了完善的機器學(xué)習(xí)平臺。
為了簡化語音、視覺、語言相關(guān)機器學(xué)習(xí)解決方案的開發(fā),微軟在認知服務(wù)中提供了一系列強大的預(yù)先訓(xùn)練模型。微軟在云端提供了多樣化的機器學(xué)習(xí)服務(wù),從azure databricks、azure機器學(xué)習(xí)服務(wù)到機器學(xué)習(xí)虛擬機,可以滿足不同規(guī)模的使用需求。為了幫助開發(fā)者更快速地構(gòu)建和訓(xùn)練模型,微軟還提供了大規(guī)模gpu集群上的分布式深度學(xué)習(xí)能力。硬件(fpga)加速模型能以很低的成本提供高速的圖像分類和識別功能。一旦完成了模型的訓(xùn)練,開發(fā)者可以自由選擇將其部署到本地、云端,或者是包括離線環(huán)境在內(nèi)的邊緣環(huán)境中。
在不久前召開的微軟ignite 2018大會上,微軟宣布azure機器學(xué)習(xí)服務(wù)的一些新服務(wù)已經(jīng)開啟預(yù)覽。
?自動機器學(xué)習(xí)和超參數(shù)調(diào)整能夠更快速地分辨合適的算法、功能和機器學(xué)習(xí)管道,從而加速模型開發(fā)的成功率。
?分布式深度學(xué)習(xí)可以利用大規(guī)模托管gpu集群更快速地開發(fā)深度學(xué)習(xí)方案。
?硬件加速推理可將強大的fpga用于高速圖像分類和識別場景。支持的模型包括resnet 50、resnet 152、vgg-16、ssd-vgg,以及可以用自有數(shù)據(jù)訓(xùn)練的densenet-121。
?全新的python sdk可以從visual studio code、visual studio、pycharm、azuredatabricks 記事本或者jupyter記事本等python開發(fā)環(huán)境中,直接連接azure機器學(xué)習(xí)服務(wù)。
?模型管理功能可以利用整合到持續(xù)開發(fā)/持續(xù)部署(ci/cd)管道中的模型和鏡像注冊表,來管理托管的容器化模型。
“借助azure機器學(xué)習(xí)服務(wù),”澳大利亞保險巨頭tal公司的創(chuàng)新總經(jīng)理dan talor表示,“我們成功將機器學(xué)習(xí)模型的訓(xùn)練時間從原來的的兩個月,減少到了只要幾個小時?!?/p>
關(guān)于onnx的更多信息,請訪問其官方網(wǎng)站:(https://onnx.ai/)。
關(guān)于azure積極學(xué)習(xí)的最新進展,請訪問:(https://azure.microsoft.com/zh-cn/services/machine-learning-service/)。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“機電號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of JDZJ Hao, which is a social media platform and only provides information storage services.
