簡(jiǎn)要描述:ErgoAI®動(dòng)作捕捉平臺(tái)面向具身智能、機(jī)器人工程、人機(jī)交互、運(yùn)動(dòng)科學(xué)及數(shù)字醫(yī)療等領(lǐng)域,提供高精度人體運(yùn)動(dòng)采集、行為分析與智能映射的全鏈路研究支持。平臺(tái)融合光學(xué)、慣性等多模態(tài)動(dòng)作捕捉技術(shù),結(jié)合三維空間定位、實(shí)時(shí)數(shù)據(jù)解算與人工智能算法,實(shí)現(xiàn)對(duì)人體運(yùn)動(dòng)細(xì)節(jié)的精準(zhǔn)捕獲、建模與智能應(yīng)用,賦能機(jī)器人仿生控制、人因工效分析、康復(fù)評(píng)估及虛擬交互等科研與產(chǎn)業(yè)化創(chuàng)新。
產(chǎn)品中心
詳細(xì)介紹
品牌 | 其他品牌 | 產(chǎn)地 | 國產(chǎn) |
---|
通過高精度動(dòng)作捕捉傳感器精確捕捉人體或物體在三維空間中每一個(gè)關(guān)節(jié)角度、肌肉活動(dòng)和整體姿態(tài)的運(yùn)動(dòng)細(xì)節(jié),包括慣性動(dòng)作捕捉測(cè)試儀、光學(xué)動(dòng)作捕捉測(cè)試儀兩類,可廣泛應(yīng)用于運(yùn)動(dòng)科學(xué)、康復(fù)醫(yī)學(xué)、虛擬現(xiàn)實(shí)及用戶體驗(yàn)等領(lǐng)域。
設(shè)備名稱 | 設(shè)備介紹 |
Mars光學(xué)動(dòng)作捕捉相機(jī) | Mars系列動(dòng)作捕捉鏡頭采用紅外攝像頭捕捉反光標(biāo)識(shí)點(diǎn),能夠采集并生成精準(zhǔn)、實(shí)時(shí)的動(dòng)作信息,包括三維空間XYZ坐標(biāo)、六自由度(6DoF)、關(guān)節(jié)角度、偏航角(Yaw)、橫搖角(Roll)、俯仰角(Pitch)、歐拉角等數(shù)據(jù),為機(jī)器人/無人機(jī)的位姿控制、運(yùn)動(dòng)規(guī)劃提供連貫、流暢的動(dòng)作數(shù)據(jù)基礎(chǔ)。同時(shí),系統(tǒng)可進(jìn)行二次開發(fā)。 |
Xsens MVN Link慣性動(dòng)作捕捉儀 | Xsens Link運(yùn)動(dòng)捕捉套裝,該套裝由17個(gè)傳感器組成,傳感器被安裝在緊身的萊卡材質(zhì)服裝上,可以提供高質(zhì)量的數(shù)據(jù)記錄。Xsens Link的20毫秒低延遲特性,實(shí)時(shí)應(yīng)用程序和實(shí)時(shí)傳輸,同時(shí)具有低延遲率保證數(shù)據(jù)捕獲和處理的時(shí)間非常短,可實(shí)時(shí)反饋和精確同步的虛擬現(xiàn)實(shí)、增強(qiáng)現(xiàn)實(shí)、動(dòng)畫制作、游戲開發(fā)以及體育訓(xùn)練等領(lǐng)域。 |
ErgoLAB Motion 慣性動(dòng)作捕捉 | ErgoLAB Motion可穿戴人體運(yùn)動(dòng)捕捉與人機(jī)工效分析系統(tǒng)是基于無線慣性傳感技術(shù)的全身三維動(dòng)作捕捉及工效學(xué)評(píng)價(jià)系統(tǒng)。ErgoLAB Motion系統(tǒng)結(jié)合了加速度傳感器、陀螺儀、方位傳感器實(shí)時(shí)采集人體動(dòng)作,位置,速度,關(guān)節(jié)角度,扭矩等信息,對(duì)數(shù)據(jù)無損耗,結(jié)合可穿戴無線眼動(dòng)儀、可穿戴無線腦電儀、以及無線人因傳感器(肌電、心電、皮電、皮溫、體溫等)設(shè)備,既可以基于實(shí)驗(yàn)室進(jìn)行模擬實(shí)驗(yàn),也可脫離固定場(chǎng)地在野外真實(shí)世界進(jìn)行現(xiàn)場(chǎng)研究。可實(shí)時(shí)顯示被捕捉者的動(dòng)作及各種測(cè)量數(shù)據(jù),具有傳統(tǒng)的人機(jī)工程分析系統(tǒng)以及人體動(dòng)作捕捉系統(tǒng)的優(yōu)勢(shì)。 |
動(dòng)作捕捉邊緣計(jì)算終端 | 搭載邊緣計(jì)算終端和智能算法模型,基于動(dòng)捕數(shù)據(jù)對(duì)人體動(dòng)作姿態(tài)進(jìn)行實(shí)時(shí)監(jiān)測(cè)預(yù)警,同時(shí)可以結(jié)合動(dòng)作交互智能模型,靈活配置控制外設(shè),滿足多樣化科研與應(yīng)用場(chǎng)景 |
l 高精度姿態(tài)捕捉:提供非常精確的三維空間數(shù)據(jù),能夠捕捉到人體的每一個(gè)微小的動(dòng)作變化
l 實(shí)時(shí)數(shù)據(jù)反饋:提供實(shí)時(shí)數(shù)據(jù)輸出,通過真人驅(qū)動(dòng)3D虛擬模型進(jìn)行可視化呈現(xiàn),使研究人員能夠即時(shí)觀察和分析個(gè)體的運(yùn)動(dòng)表現(xiàn)。
l 無創(chuàng)性設(shè)計(jì):設(shè)備采用非侵入式設(shè)計(jì),對(duì)用戶的身體無傷害,適合長時(shí)間監(jiān)測(cè)
l 簡(jiǎn)單易用:操作簡(jiǎn)單、快速標(biāo)定,可實(shí)現(xiàn)自動(dòng)識(shí)別人體,一鍵數(shù)據(jù)修復(fù),大幅提升自動(dòng)化處理能力。
l 抗干擾能力強(qiáng):具備良好的抗干擾性能,確保在復(fù)雜環(huán)境中也能獲得準(zhǔn)確、穩(wěn)定的數(shù)據(jù)。
l 數(shù)據(jù)同步采集與可視化:基于ErgoAI人因智能平臺(tái)進(jìn)行動(dòng)作姿態(tài)與其他多模態(tài)數(shù)據(jù)的同步采集,實(shí)時(shí)可視化監(jiān)測(cè)個(gè)體的動(dòng)作姿態(tài)并進(jìn)行即時(shí)預(yù)警。
l 關(guān)節(jié)角度數(shù)據(jù)處理算法:自定義選擇人體模型關(guān)節(jié)角度與數(shù)據(jù)處理,專業(yè)性動(dòng)作姿態(tài)解碼算法;
l 可視化3D數(shù)字人:通過3D數(shù)字人實(shí)時(shí)重塑三維運(yùn)動(dòng)模型
l 工效學(xué)姿勢(shì)傷害評(píng)估:基于標(biāo)準(zhǔn)姿態(tài)數(shù)據(jù)庫,可視化動(dòng)作和姿勢(shì)的實(shí)時(shí)風(fēng)險(xiǎn)評(píng)估與風(fēng)險(xiǎn)預(yù)警;
l 動(dòng)作分析:動(dòng)作編碼分析、動(dòng)作交叉分析、動(dòng)作延遲分析、動(dòng)作姿態(tài)可視化分析
l 動(dòng)作數(shù)據(jù)集管理:支持多源異構(gòu)動(dòng)作數(shù)據(jù)的整合與標(biāo)注,提供標(biāo)準(zhǔn)化的動(dòng)作數(shù)據(jù)分類體系
l 特征構(gòu)建與模型訓(xùn)練:從原始動(dòng)作數(shù)據(jù)中提取時(shí)空特征、動(dòng)力學(xué)特征等有效信息,運(yùn)用機(jī)器學(xué)習(xí)、深度學(xué)習(xí)算法構(gòu)建高精度行為分析模型,實(shí)現(xiàn)對(duì)動(dòng)作模式的識(shí)別、分類與預(yù)測(cè)。
l 智能行為映射:將訓(xùn)練好的模型輸出結(jié)果映射至實(shí)際應(yīng)用場(chǎng)景,如人機(jī)交互優(yōu)化、行為異常檢測(cè)、運(yùn)動(dòng)姿態(tài)矯正等,助力實(shí)現(xiàn)智能化人因工程設(shè)計(jì)與決策。
l 人因工效與安全工程:基于高精度動(dòng)作數(shù)據(jù),開展工作姿態(tài)分析、操作負(fù)荷評(píng)估與運(yùn)動(dòng)損傷風(fēng)險(xiǎn)研究,優(yōu)化人機(jī)界面設(shè)計(jì)、工作流程與安全生產(chǎn)系統(tǒng)。
l 機(jī)器人仿生控制與具身智能:通過人體運(yùn)動(dòng)捕捉驅(qū)動(dòng)仿生機(jī)器人、虛擬角色實(shí)現(xiàn)自然運(yùn)動(dòng)與決策行為,推動(dòng)具身認(rèn)知、機(jī)器人學(xué)習(xí)與人機(jī)協(xié)同系統(tǒng)開發(fā)。
l 虛擬現(xiàn)實(shí)與增強(qiáng)現(xiàn)實(shí)交互:支持VR/AR環(huán)境中的動(dòng)作驅(qū)動(dòng)、沉浸式交互與用戶體驗(yàn)研究,應(yīng)用于教育、訓(xùn)練、娛樂及工業(yè)仿真等領(lǐng)域。
l 運(yùn)動(dòng)科學(xué)與康復(fù)工程:開展運(yùn)動(dòng)功能評(píng)估、康復(fù)訓(xùn)練監(jiān)測(cè)、運(yùn)動(dòng)姿態(tài)矯正等研究,支持臨床康復(fù)、體育科學(xué)和老年健康相關(guān)應(yīng)用。
l 行為計(jì)算與交互設(shè)計(jì):基于動(dòng)作模式識(shí)別與情感計(jì)算,研發(fā)新型自然交互系統(tǒng),應(yīng)用于智能家居、車載交互、無障礙技術(shù)等場(chǎng)景。
整體概述
ErgoLAB人機(jī)環(huán)境同步平臺(tái)采用多模態(tài)數(shù)據(jù)時(shí)鐘同步技術(shù),平臺(tái)可完成完整的實(shí)驗(yàn)和測(cè)評(píng)流程,包括項(xiàng)目管理-試驗(yàn)設(shè)計(jì)-同步采集-信號(hào)處理-數(shù)據(jù)分析-人因智能評(píng)估-可視化報(bào)告,支持基于云架構(gòu)技術(shù)的團(tuán)體測(cè)試和大數(shù)據(jù)管理。
ErgoLAB人機(jī)環(huán)境同步平臺(tái)采用主客觀結(jié)合多模態(tài)數(shù)據(jù)同步采集與多維度驗(yàn)證的方法,數(shù)據(jù)實(shí)時(shí)同步種類包含大腦認(rèn)知數(shù)據(jù)(EEG/BCI腦電儀與腦機(jī)接口邊緣計(jì)算設(shè)備、fNIRS/BCI近紅外腦成像儀),視覺數(shù)據(jù)(Eyetracker眼動(dòng)儀與視線交互系統(tǒng)),生理數(shù)據(jù)(生理儀含:GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行為觀察、肢體動(dòng)作與面部表情(基本情緒、情緒效價(jià)、微表情等)數(shù)據(jù)、生物力學(xué)數(shù)據(jù)(拉力、握力、捏力、壓力…),人機(jī)交互數(shù)據(jù)(包含人機(jī)界面交互行為數(shù)據(jù)以及對(duì)應(yīng)的鍵盤操作,鼠標(biāo)點(diǎn)擊、懸浮、劃入劃出等;移動(dòng)終端人機(jī)交互行為數(shù)據(jù)以及對(duì)應(yīng)的手指軌跡操作行為如點(diǎn)擊、縮放、滑動(dòng)等;VR終端界面人機(jī)交互行為數(shù)據(jù)及對(duì)應(yīng)的雙手操作拾取、丟棄、控制,VR空間行走軌跡)、以及多類型時(shí)空行為軌跡數(shù)據(jù)采集(包括室內(nèi)、戶外、以及VR環(huán)境不同時(shí)空的行走軌跡、行車軌跡、訪問狀態(tài)以及視線交互、情感反應(yīng)、交互操作行為等數(shù)據(jù)實(shí)時(shí)同步采集)、以及作業(yè)空間及作業(yè)環(huán)境數(shù)據(jù)(溫度、濕度、噪音、光照、大氣壓、濕度、粉塵等)等客觀量化數(shù)據(jù);為科學(xué)研究及應(yīng)用提供完整的數(shù)據(jù)指標(biāo)。
將人工智能技術(shù)引入人因工程研究工具,人因工程行業(yè)更加深度,使得實(shí)驗(yàn)環(huán)境不會(huì)受限于某一種設(shè)備或數(shù)據(jù)指標(biāo),采集分析不同典型行業(yè)或?qū)W科專業(yè)的人-機(jī)-環(huán)境系統(tǒng)交互過程中自然狀態(tài)下的人類行為數(shù)據(jù),獲取更接近真實(shí)人員狀態(tài)的數(shù)據(jù)。平臺(tái)還提供覆蓋科研實(shí)驗(yàn)全流程的功能模塊,包括項(xiàng)目管理、實(shí)驗(yàn)設(shè)計(jì)、同步采集、數(shù)據(jù)分析、綜合統(tǒng)計(jì)和可視化報(bào)告,結(jié)合ErgoAI人因智能邊緣計(jì)算平臺(tái)為多模態(tài)人機(jī)環(huán)境研究提供一站式人因工程+人工智能解決方案。以ErgoLAB人機(jī)環(huán)境同步平臺(tái)和ErgoAI人因智能邊緣計(jì)算平臺(tái)為核心的多模態(tài)同步人因智能解決方案大大提高了實(shí)驗(yàn)結(jié)果的信效度,同時(shí)節(jié)省了研究的人力、物力、時(shí)間,提高了研究與測(cè)評(píng)的整體效率。
基于ErgoAI人因智能多元時(shí)序算法底座與人因工程人機(jī)環(huán)境數(shù)據(jù)庫,構(gòu)建人員特定狀態(tài)的預(yù)訓(xùn)練模型,配合高靈活度的訓(xùn)練方案管理功能,用戶能夠在統(tǒng)一環(huán)境中高效構(gòu)建和優(yōu)化模型。 從而實(shí)現(xiàn)對(duì)人員狀態(tài)的精準(zhǔn)實(shí)時(shí)評(píng)估與預(yù)警,如負(fù)荷狀態(tài)、應(yīng)激狀態(tài)、疲勞狀態(tài)、情景意識(shí)和注意能力等。
Kingfar公司介紹:
北京津發(fā)科技股份有限公司(津發(fā)科技)是專精特新“小巨人" ,新一輪第一批專精特新重點(diǎn)“小巨人"、知識(shí)產(chǎn)權(quán)優(yōu)勢(shì)企業(yè)、高新技術(shù)企業(yè)、科技型中小企業(yè);旗下包含北京人因智能工程技術(shù)研究院和北京人因工程設(shè)計(jì)院有限公司等新型科技研發(fā)機(jī)構(gòu),并聯(lián)合共建了北京市企業(yè)技術(shù)中心、北京本科高校產(chǎn)學(xué)研深度協(xié)同育人平臺(tái)、蘇州市重點(diǎn)實(shí)驗(yàn)室、湖南省工程實(shí)驗(yàn)室、山東省工程研究中心等多個(gè)科技創(chuàng)新平臺(tái)。
津發(fā)科技承擔(dān)和參與了多項(xiàng)國家重點(diǎn)研發(fā)計(jì)劃、工信部高質(zhì)量發(fā)展專項(xiàng)、國家自然科學(xué)基金等課題基金項(xiàng)目。擔(dān)任全國信標(biāo)委XR擴(kuò)展現(xiàn)實(shí)標(biāo)準(zhǔn)化工作組副組長單位,工信部元宇宙標(biāo)準(zhǔn)化工作組關(guān)鍵技術(shù)組聯(lián)合組長單位;主持和參編國際、國家、行業(yè)和團(tuán)體標(biāo)準(zhǔn)30余項(xiàng)。
津發(fā)科技創(chuàng)新研發(fā)了國產(chǎn)化自主可控的人因工程與人因智能邊緣計(jì)算系列信創(chuàng)產(chǎn)品與技術(shù);通過了歐洲CE、美國FCC、歐盟ROHS,以及ISO9001、ISO14001、ISO45001等多項(xiàng)國際認(rèn)證。累計(jì)榮獲30余項(xiàng)省部級(jí)新技術(shù)新產(chǎn)品認(rèn)證和多項(xiàng)省部級(jí)科學(xué)技術(shù)獎(jiǎng)勵(lì);全球申請(qǐng)發(fā)明磚利超過530項(xiàng),已授權(quán)120余項(xiàng)國際和國家發(fā)明磚利、150余項(xiàng)國際和國家注冊(cè)商標(biāo)、130余項(xiàng)國家軟件著作權(quán);已服務(wù)全國高等院校和裝備科技工業(yè)科研院所應(yīng)用示范,并已支撐科研學(xué)者和科技工作者發(fā)表中英文學(xué)術(shù)論文超過1100篇。
郵件聯(lián)系我們:sales@kingfar.cn
電話
微信掃一掃