微軟亞當計畫影像能力強,可辨識狗品種、分析皮膚傷口症狀

作者 | 發布日期 2014 年 07 月 15 日 14:35 | 分類 尖端科技
adam

英國網站《The Register》報導,微軟(Microsoft Corp.)14 日發表的「亞當計畫(Project Adam)」是一項尖端深度學習影像辨識系統,與Google「DistBelief」神經網路相比處理速度快上 50 倍、準確度也高出一倍。以 ImageNet 基準測試為例,亞當計畫將數百萬張影像正確地歸類到 22,000 類別的準確度為 29.8%、高於 DistBelief 的 15.8%。



Microsoft Research 14 日透過官網指出,亞當計畫能夠辨識出威爾士矮腳狗兩個品種之間的影像差別。微軟指出,紐約時報曾在 2012 年 6 月提到,Google 利用 16,000 台電腦架構出懂得辨識小貓影像的神經網路。亞當計畫使用的機器數量較 Google 系統少 30 倍。

微軟指出,透過亞當計畫,未來使用者只需要透過手機拍下食物照片、就可立即取得精準的相關營養成分訊息。手不小心割傷了?只要用手機拍下傷口,使用者就可取得初步分析報告建議。

Adam_screenshot-edit(圖片來源:Wired

回鍋擔任技術顧問的微軟創辦人比爾蓋茲(Bill Gates)今年 2 月在參加 Reddit「隨你問(Ask Me Anything;AMA)」線上活動時提到,他對於雲端跟新裝置可以協助人類以新方式溝通感到興奮。蓋茲說,「機器學習(machine learning)」將是未來 10 年最重要的科技發展趨勢。他並指出,過去 3 年影音自動辨識功能開發已出現重大進展。

微軟執行長薩提亞納德拉(Satya Nadella)5 月在出席首屆「程式碼會議(Code Conference)」、接受 Re/code 科技網站知名科技專欄作家 Walt Mossberg、Kara Swisher 訪問時指出,兩年內)(2015、2016 年)英語使用者就可透過「Skype Translator」即時語音翻譯功能與埃及人進行即時溝通。「Skype Translator」將於今年底以前率先以 Windows 8 測試版應用軟體的面貌問世。

readwrite.com 上個月報導,根據 VisionMobile 發表的報告,「物聯網(The Internet of Things;IOT)」真正的大餅不在那數百億顆感測器、也不在單純的連結服務,解讀、使用感測器創造出的龐大數據才是真正的獲利泉源!據統計,目前全球有 90% 的數據是在過去兩年才出現、這當中多數是出自機器。Google 旗下 Nest 日前才以5.55億美元併購監視攝影機製造商 Dropcam,這家公司每天上傳的影像數據比 YouTube 用戶上傳的還要多,背後蘊藏相當龐大的商機。
VisionMobile 指出,目前 IOT 相關軟體開發商僅有 30 萬名、但預估到 2020 年將會暴增至 450 萬名、平均複合年增率高達 57%。VisionMobile 認為軟體開發商將是賦予 IOT 生命的關鍵,未來將不會有單一廠商或單一應用軟體(App)主導 IOT。

(MoneyDJ新聞 記者 賴宏昌 報導 )

發表迴響