Personal Robot 2(PR2)[5]是Willow Garage開(kāi)發(fā)的移動(dòng)式操作機(jī)器人平臺(tái)(如圖2(a)),它配備兩個(gè)兼容7自由度機(jī)械臂和機(jī)械手,在頭部、胸部、肘部、夾爪上分別安裝有高分辨率攝像頭、激光測(cè)距儀、慣性測(cè)量單元、觸覺(jué)傳感器等豐富的傳感設(shè)備,通過(guò)底部的四輪移動(dòng)平臺(tái)可無(wú)限擴(kuò)展其作業(yè)范圍,提供基于Ros系統(tǒng)的仿真環(huán)境,可模擬開(kāi)門、打臺(tái)球和畫(huà)畫(huà)等復(fù)雜操作,適用于科研的實(shí)驗(yàn)平臺(tái)。Welschehold[6]在PR2實(shí)現(xiàn)了從人的開(kāi)門操作動(dòng)作示教中學(xué)習(xí)移動(dòng)底盤的運(yùn)動(dòng)方式以及夾持器的操作姿態(tài),作者將機(jī)器人的學(xué)習(xí)分為三個(gè)部分的軌跡預(yù)測(cè)包括示教者的手部運(yùn)動(dòng)軌跡、示教者的身體移動(dòng)軌跡以及被操作物體的運(yùn)動(dòng)軌跡,最后通過(guò)超圖優(yōu)化方式的來(lái)預(yù)測(cè)機(jī)器人底盤運(yùn)動(dòng)和操作機(jī)械臂的運(yùn)動(dòng)軌跡(如圖2(b)-(d))。
Cosero是德國(guó)波恩大學(xué)的Sven Behnke團(tuán)隊(duì)根據(jù)家庭環(huán)境中的日常操作任務(wù)而研制的一款仿人操作機(jī)器人基于深度學(xué)習(xí)方法的目標(biāo)姿態(tài)估計(jì)和RGB-D SLAM等感知測(cè)量
機(jī)器人、無(wú)人機(jī)、自動(dòng)駕駛汽車等加快落地,智慧城市深入建設(shè),更是為傳感器產(chǎn)業(yè)帶來(lái)了難以估量的龐大機(jī)遇
中國(guó)移動(dòng)聯(lián)合產(chǎn)業(yè)合作伙伴發(fā)布《室內(nèi)定位白皮書(shū)》,對(duì)室內(nèi)定位產(chǎn)業(yè)發(fā)展現(xiàn)狀及面臨的挑戰(zhàn),深入分析了垂直行業(yè)的室內(nèi)定位需求,并詳細(xì)闡述了實(shí)現(xiàn)室內(nèi)定位的技術(shù)原理, 及室內(nèi)定位評(píng)測(cè)體系
下一個(gè)十年,智能人機(jī)交互、多模態(tài)融合、結(jié)合領(lǐng)域需求的 NLP 解決方案建設(shè)、知識(shí)圖譜結(jié)合落地場(chǎng)景等將會(huì)有突破性變化
自然語(yǔ)言處理技術(shù)的應(yīng)用和研究領(lǐng)域發(fā)生了許多有意義的標(biāo)志性事件,技術(shù)進(jìn)展方面主要體現(xiàn)在預(yù)訓(xùn)練語(yǔ)言模型、跨語(yǔ)言 NLP/無(wú)監(jiān)督機(jī)器翻譯、知識(shí)圖譜發(fā)展 + 對(duì)話技術(shù)融合、智能人機(jī)交互、平臺(tái)廠商整合AI產(chǎn)品線
NVIDIA解決方案架構(gòu)師王閃閃講解了BERT模型原理及其成就,NVIDIA開(kāi)發(fā)的Megatron-BERT
基于內(nèi)容圖譜結(jié)構(gòu)化特征與索引更新平臺(tái),在結(jié)構(gòu)化方面打破傳統(tǒng)的數(shù)倉(cāng)建模方式,以知識(shí)化、業(yè)務(wù)化、服務(wù)化為視角進(jìn)行數(shù)據(jù)平臺(tái)化建設(shè),來(lái)沉淀內(nèi)容、行為、關(guān)系圖譜,目前在優(yōu)酷搜索、票票、大麥等場(chǎng)景開(kāi)始進(jìn)行應(yīng)用
通過(guò)使用仿真和量化指標(biāo),使基準(zhǔn)測(cè)試能夠通用于許多操作領(lǐng)域,但又足夠具體,能夠提供系統(tǒng)的有關(guān)信息
優(yōu)酷智能檔突破“傳統(tǒng)自適應(yīng)碼率算法”的局限,解決視頻觀看體驗(yàn)中高清和流暢的矛盾
姚霆指出,當(dāng)前的多模態(tài)技術(shù)還是屬于狹隘的單任務(wù)學(xué)習(xí),整個(gè)訓(xùn)練和測(cè)試的過(guò)程都是在封閉和靜態(tài)的環(huán)境下進(jìn)行,這就和真實(shí)世界中開(kāi)放動(dòng)態(tài)的應(yīng)用場(chǎng)景存在一定的差異性
Tube Feature Aggregation Network(TFAN)新方法,即利用時(shí)序信息來(lái)輔助當(dāng)前幀的遮擋行人檢測(cè),目前該方法已在 Caltech 和 NightOwls 兩個(gè)數(shù)據(jù)集取得了業(yè)界領(lǐng)先的準(zhǔn)確率
根據(jù)各種指法的具體特點(diǎn),對(duì)時(shí)頻網(wǎng)格圖、時(shí)域網(wǎng)格圖、頻域網(wǎng)格圖劃分出若干個(gè)不同的計(jì)算區(qū)域,并以每個(gè)計(jì)算區(qū)域的均值與標(biāo)準(zhǔn)差作為指法自動(dòng)識(shí)別的特征使用,用于基于機(jī)器學(xué)習(xí)方法的指法自動(dòng)識(shí)別