??這是本博客的第一篇翻譯文檔,筆者已經苦逼的竭盡全力的在翻譯了,但無奈英語水平也是很有限,不對或者不妥當不準確的地方必然會有,還懇請大家留言或者郵件我以批評指正,我會虛心接受。謝謝大家。
? ? ? ?原文網址:https://msdn.microsoft.com/en-us/library/dn782041.aspx
2014年10月由微軟發布的Kinect for Windows 2.0 SDK中包含如下文所述的新特性、新工具以及新文檔。
本次發布的改進:
1、Windows應用商店的支持
? ? ? ?通過此版本的Kinect for Windows,你可以針對Windows商店開發并發布Kinect應用程序。我們看到開發者所創造的東西,一定會異常的興奮。除了語音外,所有的Kinect傳感器和其SDK的功能在此應用程序接口上都是有效可用的。想要查看關于使用Kinect開發的Windows商店應用的更多信息,請點擊:http://go.microsoft.com/fwlink/?LinkId=517592
2、Unity的支持
? ? ? ?這是有史以來第一次,Kinect的API通過一個Unity的Package文件可以被應用到Unity專業版的開發中。我們很興奮,可以將這樣的平臺提供給我們的開發者。Kinect for Windows的API核心功能,可視化手勢構建器和面部識別可以在Unity的應用中被調用。Unity插件可以點擊右側網址下載:http://go.microsoft.com/fwlink/?LinkID=513177
3、.Net APIs
? ? ? ?對于此類API,很多過去從事工作與托管API有關聯的開發者應該覺得熟悉。我們知道這是我們能夠獲得的最快的開發環境之一,并且很多正在發展的商店在這一領域現在擁有許多的資本投入。Kinect和其傳感器的所有功能都可以在此API中被應用。
4、Native?APIs(原生API)
注:Native API是指以二進制方式,函式庫(DLL)直接開放的應用程式開發接口,可以直接由C/C++來呼叫存取使用。
? ? ? ?許多Kinect應用程序需要玩家像在寫原生C++代碼一樣火力全開。我們很高興能夠分享Kinect原生API的這種迭代方法。這類API的形式和結構與托管API集合相同,但它允許開發者的程序能夠達到C++代碼運行的最大速度。這類API和v1.x版本的Native?APIs有很大的不同,他們更容易被用戶去使用。Kinect和其SDK的所有功能都可以在此API中被應用。
5、音頻
? ? ? ?Kinect和SDK提供了麥克風陣列技術和信號處理技術最好的成果——虛擬的、基于硬件的高指向性的麥克風,它可以識別出聲源的方向。另外,對于輸入的語音,Kinect提供了高質量的語音識別。
6、面部APIs
? ? ? ?從v1版本的SDK延伸擴展了很多,面部APIs提供了豐富功能來適應面部的各種情況。在面部APIs中,開發者能夠以傳感器的視角來偵測面部,校準為5個單獨的面部標識,并且實時的跟蹤方向。高清的面部識別技術將每張臉分為94個單獨的形態單元,來創建一個和用戶高度相似的臉部網格模型。這個網格模型能夠被實施跟蹤,來體現用戶豐富的面部肌肉運動以及富有表達性的表情。
7、手部姿勢指針的支持
? ? ? 如果你想要通過手部的姿勢指示操控你的應用程序,Kinect for Windows v2已經針對這點做出了改進。可以通過SDK中自帶的例子來了解怎樣使用手部指示來功能化你的應用程序,新版本的SDK增加了手部關節的骨骼節點識別。
8、Kinect?Fusion
注:Kinect Fusion技術在支持GPU加速的機器上能夠對物體進行實時的三維建模。
? ? ? ?通過Kinect?for Windows的新版本,你可以建立和部署Kinect Fusion類的應用程序。相比于1.x版本的Kinect Fusion,我們提供了更高的分辨率,更好的攝像頭追蹤和性能。
9、Kinect Studio
? ? ? ?Kinect Studio從v1時代就已經開始了重大的修改,目的是為了能夠hold住新的傳感器并且為用戶提供更好的定制體驗服務和控制感。新的用戶接口在不同的工作區域和用戶模式提供了更大的靈活性。比如說,現在可以比較兩個并行的2D或者3D視圖,或者建立一個一種默認的布局來滿足自己的需要。監測,記錄,重放數據流的分離,為我們提供了更多的功能,比如文檔級和流級的元數據。
時間線功能:輸入點和輸出點來控制播放重放功能中的哪一部分;暫停點,可以讓你在多處設置想要暫停(懸掛)的點;標記點,可以讓你及時的附加元數據給不同的點。這種時間線的預覽也會體現出循環播放和額外的2D/3D可視化設置。
10、Visual?Gesture Builder(預覽版)
? ? ? ?引入visual Gesture Builder(視覺姿勢生成器),使用機器學習和身體幀數據來定義一個姿勢。眾多的身體數據被與姿勢相關的元數據標記,這些元數據會被機器學習裝置在姿勢生成階段應用以從身體數據中提取一個姿勢定義。
姿勢定義可以在隨后的姿勢檢測運行的時候被應用,也就是被你的應用程序調用,來檢測一個或多個姿勢。然而在姿勢檢測的時候應用機器學習是不適合心臟虛弱的人的,我們提供了一種快速建原型的途徑。使用Vgbview,你可以不通過任何寫代碼的操作就標準化你的姿勢定義。有關詳細的演示視頻和VGB使用白皮書,請參見:https://social.msdn.microsoft.com/Forums/en-US/02e0302a-e3bd-46d3-9146-0dacd11d2a8d/deep-dive-videos-and-whitepaper-for-visual-gesture-builder?forum=kinectv2sdk
11、樣本
? ? ? ?通過SDKBrowser,我們可以獲得一個廣泛的樣本,包含一系列的框架和語言。
- Audio Basics-(D2D, WPF)
- Audio Basics (IStream) -D2D
- Audio Capture-Console (Raw)
- Body Basics-(D2D, HTML, WPF, XAML)
- Color Basics-(D2D, HTML, WPF, XAML)
- Controls Basics-(DX, WPF, XAML)
- Coordinate Mapping Basics (D2D, HTML, WPF, XAML)
- Depth Basics (D2D, HTML, WPF, XAML)
- Discrete Gesture Basics (WPF)
- Face Basics (D2D, HTML, WPF)
- HD Face Basics (WPF, XAML, XAML-CPP)
- Infrared Basics (D2D, HTML, WPF, XAML)
- Kinect Fusion Basics (D2D)
- Kinect Fusion Explorer (D2D, WPF)
- Speech Basics (D2D, WPF)