最近中文字幕在线mv视频_好爽…又高潮了免费毛片 _亚洲av无码不卡一区二区三区_日出水了特别黄的视频


首頁
產(chǎn)品系列
行業(yè)應(yīng)用
渠道合作
新聞中心
研究院
投資者關(guān)系
技術(shù)支持
關(guān)于創(chuàng)澤
| En
 
  當(dāng)前位置:首頁 > 新聞資訊 > 機(jī)器人應(yīng)用 > 機(jī)器人輔助穿衣過程中用戶上肢運(yùn)動實時追蹤方法  
 

機(jī)器人輔助穿衣過程中用戶上肢運(yùn)動實時追蹤方法

來源:CAAI認(rèn)知系統(tǒng)與信息處理專委會      編輯:創(chuàng)澤      時間:2020/5/18      主題:其他   [加盟]
1、論文背景 
機(jī)器人可以為殘疾人或老年人的日常生活提供極大幫助,比如說機(jī)器人輔助穿衣。然而穿衣過程中,用戶上肢的突然動作可能導(dǎo)致穿衣任務(wù)的失敗,甚至為用戶帶來危險。使用視覺傳感器實時追蹤用戶上肢運(yùn)動(user posture tracking)非常困難,因為衣服和機(jī)器人都對用戶造成了遮擋。例如,使用開源骨骼追蹤框架(OpenNI Skeleton Tracker [1])和深度學(xué)習(xí)方法OpenPose [2],均無法實施準(zhǔn)確的追蹤用戶上肢運(yùn)動。

為了解決上述問題,我們提出了一種多傳感器信息融合的人體骨骼實時追蹤方法。本文研究主要包括以下三點(diǎn):第一,我們通過高斯隱變量模型(Gaussian Process Latent VariableModel,GP-LVM),將運(yùn)動上肢的高維運(yùn)動映射至低維度的隱變量空間中(latent space)。該空間可以針對不同用戶的不同上肢殘疾特點(diǎn),建立個性化用戶輔助模型(personalized user model)。第二,我們在隱變量空間中使用貝葉斯網(wǎng)絡(luò)(Bayesian networks),該網(wǎng)絡(luò)融合了機(jī)器人和用戶之間力的信息,以及機(jī)器人末端位置信息,進(jìn)而實時追蹤人體上肢運(yùn)動。第三,我們使用層級多任務(wù)控制(hierarchical multi-task control),使機(jī)器人既可以基于力的信息自動改變運(yùn)動軌跡從而保證用戶安全,又可以完成穿衣任務(wù)。

圖1 Baxter機(jī)器人輔助殘疾人穿衣

2、系統(tǒng)概述
如圖2所示,我們要求健康用戶穿著繃帶來模擬上肢殘疾情況。我們將采集用戶上肢隨機(jī)運(yùn)動的數(shù)據(jù),將其映射至二維隱變量空間中建立個性化用戶模型。在該二維空間中,我們采用基于概率的粒子濾波方法(particle filter),完成多傳感器信息融合(機(jī)器人與用戶間力的信息,機(jī)器人末端執(zhí)行器位置信息),從而實現(xiàn)用戶上肢運(yùn)動的實時準(zhǔn)確追蹤。在我們之前的研究中 [3], 我們將機(jī)器人穿衣動作描述為兩個層級任務(wù):高層級任務(wù)即機(jī)器人根據(jù)力的信息調(diào)整運(yùn)動軌跡,從而實時減小用戶的受力情況,確保用戶的舒適與安全;低層級任務(wù)即通過PD控制完成從瘦-肘-肩關(guān)鍵的穿衣軌跡,該軌跡由本文的用戶上肢追蹤方法實時更新。


圖2 系統(tǒng)概括圖

圖3展示了完整的穿衣過程。當(dāng)用戶在穿衣過程抬起胳膊時,機(jī)器人也相應(yīng)改變軌跡來減少受力情況,并實時運(yùn)行至新的肘關(guān)節(jié)和肩關(guān)節(jié)位置。

圖3 機(jī)器人穿衣過程

圖4 展示了在低維隱變量空間內(nèi)粒子濾波的過程。我們根據(jù)力和位置的信息為每個粒子賦予新權(quán)重,從而循環(huán)更新。圖中顏色越淺代表權(quán)重越高。

圖4 低維隱變量空間內(nèi)粒子濾波

3、實驗分析
本文首先對隱變量空間個性化用戶模型進(jìn)行分析,如圖5所示。該模型有一下3個特點(diǎn):第一,該模型可以描述不同用戶的不同上肢殘疾特點(diǎn)。圖5里面不同顏色即代表不同殘疾情況的運(yùn)動空間;第二點(diǎn),低維空間極大減小了粒子濾波的計算量;第三點(diǎn),該個性化模型權(quán)衡了用戶殘疾上肢運(yùn)動的可達(dá)性 (reachability) 和用戶偏好(preference)。

本文還進(jìn)行了一些列對比試驗,其中包括了與只用視覺方法追蹤的誤差比較,如圖6所示。本文所提出的方法產(chǎn)生了3.3cm的誤差,是視覺追蹤誤差的六分之一。

本文在20名用戶上完成了相關(guān)實驗測試。每個用戶進(jìn)行50次試驗并模擬不同的殘疾類型,如圖7所示。

4、分析與結(jié)論 
本文提出了一種利用多傳感器信息在低維隱變量空間中實時追蹤用戶運(yùn)動的方法。該方法為在物理人機(jī)交互(physical human-robot interaction)中,當(dāng)人體運(yùn)動被嚴(yán)重遮擋而無法用單一視覺信息完成追蹤的問題,提供了一種解決方案。

參考文獻(xiàn):
[1] http://wiki.ros.org/openni_tracker
[2] Cao, Zhe, et al. "Realtimemulti-person 2d pose estimation using part affinity fields." Proceedingsof the IEEE Conference on Computer Vision and Pattern Recognition. 2017                         
[3] Zhang, Fan, Antoine Cully, andYiannis Demiris. "Personalized robot-assisted dressing using user modelingin latent spaces." 2017 IEEE/RSJ International Conference on IntelligentRobots and Systems (IROS). IEEE, 2017.
  



下肢外骨骼機(jī)器人步態(tài)建模及其控制方法研究

在下肢外骨骼機(jī)器人的穩(wěn)定性評估、步態(tài)規(guī)劃和平衡控制中,人機(jī)系統(tǒng)質(zhì)心是重要的參數(shù)之一

火爆的貨箱倉儲機(jī)器人

多臺貨箱到人機(jī)器人正在運(yùn)行,攜帶著貨箱輕巧敏捷地來回穿梭于存儲區(qū)和工位之間,高速完成美妝產(chǎn)品的存揀作業(yè)。這是業(yè)內(nèi)首個多層貨箱到人機(jī)器人解決方案的落地應(yīng)用,相較同等面積的人工倉,效率提升2.5倍。

結(jié)合人工智能技術(shù),5G+MR全息教室創(chuàng)新教學(xué)模式

基于計算機(jī)視覺的智能識別技術(shù) 和SLAM定位技術(shù)的引入,則實現(xiàn)了目標(biāo)與用戶的動態(tài)精準(zhǔn)識別和交互。能夠輔助課堂教學(xué),提升遠(yuǎn)程教學(xué)和溝通效率,營造場景化教學(xué)新體驗

在高動態(tài)的餐飲場景下提供配送機(jī)器人方案

配送機(jī)器人綜合了SLAM、智能導(dǎo)航避障、多機(jī)調(diào)度、人機(jī)交互等人工智能技術(shù),為餐廳、酒店、樓宇等廣泛場景提供配送機(jī)器人解決方案,在高動態(tài)的商業(yè)環(huán)境下精確建圖和定位,實現(xiàn)高效運(yùn)行,降低企業(yè)成本

機(jī)器人的高精度抓取和裝配

高精度機(jī)器人操控的五類方法:(1)基于傳感信息的方法(2)基于柔順機(jī)構(gòu)的方法(3)基于環(huán)境約束的方法(4)基于感知約束集成的方法(5)仿生的方法

2019中國人工智能商業(yè)落地典型企業(yè)案例-YOGO ROBOT

機(jī)器人商業(yè)落地案例YOGO ROBOT,YOGO與寶山區(qū)政府合作,打造機(jī)器人智慧樓宇集群。

多地形環(huán)境下無拐支撐的新一代步行外骨骼機(jī)器人

新一代下肢康復(fù)外骨骼機(jī)器人自主研發(fā),可以實現(xiàn)無拐杖輔助下平地行走、跨越障礙、轉(zhuǎn)彎以及上下樓梯等場景,幫助穿戴者釋放上肢負(fù)擔(dān),擴(kuò)大運(yùn)動范圍、增加平衡性和安全性

康復(fù)外骨骼機(jī)器人具有廣闊的市場前景

國外外骨骼機(jī)器人的研究早于國內(nèi),商業(yè)化水平也高,我國是繼美國、以色列和日本之后,第四個成功研發(fā)外骨骼機(jī)器人的國家

機(jī)器人遙操作

機(jī)器人遙操作已廣泛應(yīng)用在醫(yī)療領(lǐng)域、極端環(huán)境探索如太空與深海場景、防恐防爆應(yīng)用場景,及基于工業(yè)機(jī)械臂的自動化生產(chǎn)中

機(jī)器人抗擊傳染病

新冠病毒凸顯了機(jī)器人在與傳染病對抗中的重要作用,機(jī)器人不會感染傳染病

基于深度學(xué)習(xí)框架的機(jī)器人觸覺感知研究

一種基于卷積神經(jīng)網(wǎng)絡(luò)的綜合觸覺識別框架,可以利用對象的語義屬性描述和觸覺數(shù)據(jù)的融合來實現(xiàn)對新對象的識別

機(jī)器人觸覺交互研究

觸覺實現(xiàn)的各個環(huán)節(jié)中:觸覺機(jī)理復(fù)雜、觸覺數(shù)據(jù)難以獲取、觸覺系統(tǒng)真再現(xiàn)實度低、觸覺應(yīng)用數(shù)量少
 
資料獲取
新聞資訊
== 資訊 ==
» 人形機(jī)器人未來3-5年能夠?qū)崿F(xiàn)產(chǎn)業(yè)化的方
» 導(dǎo)診服務(wù)機(jī)器人上崗門診大廳 助力醫(yī)院智慧
» 山東省青島市政府辦公廳發(fā)布《數(shù)字青島20
» 關(guān)于印發(fā)《青海省支持大數(shù)據(jù)產(chǎn)業(yè)發(fā)展政策措
» 全屋無主燈智能化規(guī)范
» 微波雷達(dá)傳感技術(shù)室內(nèi)照明應(yīng)用規(guī)范
» 人工智能研發(fā)運(yùn)營體系(ML0ps)實踐指
» 四驅(qū)四轉(zhuǎn)移動機(jī)器人運(yùn)動模型及應(yīng)用分析
» 國內(nèi)細(xì)分賽道企業(yè)在 AIGC 各應(yīng)用場景
» 國內(nèi)科技大廠布局生成式 AI,未來有望借
» AIGC領(lǐng)域相關(guān)初創(chuàng)公司及業(yè)務(wù)場景梳理
» ChatGPT 以 GPT+RLHF 模
» AIGC提升文字 圖片滲透率,視頻 直播
» AI商業(yè)化空間前景廣闊應(yīng)用場景豐富
» AI 內(nèi)容創(chuàng)作成本大幅降低且耗時更短 優(yōu)
 
== 機(jī)器人推薦 ==
 
迎賓講解服務(wù)機(jī)器人

服務(wù)機(jī)器人(迎賓、講解、導(dǎo)診...)

智能消毒機(jī)器人

智能消毒機(jī)器人

機(jī)器人底盤

機(jī)器人底盤

 

商用機(jī)器人  Disinfection Robot   展廳機(jī)器人  智能垃圾站  輪式機(jī)器人底盤  迎賓機(jī)器人  移動機(jī)器人底盤  講解機(jī)器人  紫外線消毒機(jī)器人  大屏機(jī)器人  霧化消毒機(jī)器人  服務(wù)機(jī)器人底盤  智能送餐機(jī)器人  霧化消毒機(jī)  機(jī)器人OEM代工廠  消毒機(jī)器人排名  智能配送機(jī)器人  圖書館機(jī)器人  導(dǎo)引機(jī)器人  移動消毒機(jī)器人  導(dǎo)診機(jī)器人  迎賓接待機(jī)器人  前臺機(jī)器人  導(dǎo)覽機(jī)器人  酒店送物機(jī)器人  云跡科技潤機(jī)器人  云跡酒店機(jī)器人  智能導(dǎo)診機(jī)器人 
版權(quán)所有 © 創(chuàng)澤智能機(jī)器人集團(tuán)股份有限公司     中國運(yùn)營中心:北京·清華科技園九號樓5層     中國生產(chǎn)中心:山東日照太原路71號
銷售1:4006-935-088    銷售2:4006-937-088   客服電話: 4008-128-728