產品中心
相關文章
詳細介紹
品牌 | 其他品牌 | 產地 | 國產 |
---|
l 全流程一體化研究支持:集成眼動數據采集、信號處理、模型訓練與交互控制應用,支持從原始數據到智能系統開發的完整科研閉環。
l 高精度多場景眼動感知能力:配備桌面式、遙測式、穿戴式及VR集成式眼動儀,支持實驗室、自然場景及虛擬環境下的眼動數據采集,具備高采樣率與空間精度。
l 智能數據處理與模型開發環境:內置眼動信號處理算法(如I-VT濾波、注視點提取)及機器學習/深度學習框架,支持特征工程、模型訓練與個性化分析流程構建。
l 多維度可視化與深度分析功能:提供熱點圖、軌跡圖、3D注意力分布等多類可視化工具,支持AOI分析、時序統計、行為編碼及交叉模態數據分析,并可導出多格式原始與處理數據。
l 開放架構與系統集成支持:支持Python SDK/API接入,可對接駕駛模擬器、VR/AR設備、機器人系統等外部平臺,實現眼動控制與交互驗證。
ErgoLAB眼動追蹤實驗設備,包括桌面端高精度、桌面端遙測式、移動端遙測式、智能穿戴眼鏡式以及虛擬現實集成式,適配不同的研究與應用場景。
設備名稱 | 設備介紹 |
移動端遙測式眼動儀 | Tobii Pro Nano 一款小巧輕便的研究級眼動儀,專為移動設備小屏幕而設計,適用于移動終端屏幕刺激和多樣化場景中的精準眼動交互行為研究。 |
智能穿戴式眼動儀 | Tobii Pro Glasses 3 是一款專為現實環境設計的可穿戴眼動追蹤設備,其超輕且堅固的非侵入式鏡框集成了16個照明器和四眼攝像頭,是高精度、可選鏡片度數的、160°視野的場景攝像機。 |
桌面端遙測式眼動儀 | Tobii Pro Fusion高性能便攜遙測式眼動儀,以高達250Hz的采樣率精準捕捉眼動數據,適用于多種視覺刺激環境,這款基于屏幕的強大研究工具適用于對注視和眼跳等眼動行為的廣泛研究。 |
高精度組合式眼動儀 | Tobii Pro Spectrum 一款基于屏幕的高性能眼動儀,以高達1200Hz的速度捕獲凝視數據,適用于從注視到微掃視等多種眼動行為的精細研究。 |
VR虛擬現實眼動儀 | 為滿足嚴謹專業的商業客戶而生。運用Tobii®眼動追蹤技術,優化仿真、識別和計算過程,使您能夠從用戶視角洞察場景畫面,并據此采取相應的行動。 |
車載駕駛集成式眼動儀 | Smart Eye Pro專為實車駕駛和駕駛艙模擬環境設計,提供高精度和寬視角的眼動追蹤能力,允許頭部的自由移動。廣泛應用于汽車駕駛行為分析、飛行模擬訓練以及主控室多屏幕狀態監控等研究領域,是現場應用與實驗室研究的理想選擇。 |
眼動邊緣計算終端 | 搭載眼動儀邊緣計算終端和智能算法模型,基于眼動數據對人員狀態進行實時預測,同時可以結合眼動交互智能模型,靈活配置控制外設,滿足多樣化科研與應用場景 |
l 眼動數據處理算法:基于I-VT算法提取注視點、眨眼及眼跳狀態;支持自定義設置處理參數。
l 眼動點自動映射與可視化:本地Gaze Mapping自動疊加以及手動coding;支持注視點X、Y坐標、角速度、左右眼瞳孔數據的Chart可視化以及熱點圖、軌跡圖、3D圖、蜂窩圖、彩虹圖、透視圖等可視化分析。
l 眼動數據自定義分析:支持基于2D刺激材料、APP長圖、以及360°圖片/視頻或3D虛擬場景分析,實時監測個體在任何環境刺激中的注意力和行為模式,輸出實時眼動注視點數據。
l 眼動數據綜合統計與導出:支持眼動AOI和Gaze眼動點數據指標統計,提供≥25種反映注意特征的數據;支持以Excel或CSV格式導出所有原始數據、處理數據、分析數據。支持對個體眼動數據進行交叉行為分析、延遲行為分析、編碼分析、時域分析、峰值檢測分析,并提供可視化圖表,支持連續眼動數據轉行為數據。
l 數據采集可視化、特征工程、智能模型訓練、算法與模型資源
n 項目與數據集創建:自定義創建項目與Eye眼動數據集、自動配置數據預處理算法
n 特征工程與模型訓練:支持特征工程集合構建、智能模型定義訓練全流程
n AI算法與模型中心:AI算法中心、AI模型資源
l 感知與控制,搭載眼動儀邊緣計算終端,靈活配置控制外設,滿足多樣化科研與應用場景,可自定義其他設備,需提供Python SDK、API
l 人機交互與用戶體驗研究:基于眼動數據優化界面設計、交互流程與信息布局,提升數字產品、智能終端及AR/VR系統的可用性與用戶體驗。
l 智能駕駛與交通行為分析:開展駕駛員注意力分配、疲勞狀態、危險感知研究,支持輔助駕駛系統設計、座艙交互優化與交通安全評估。
l 虛擬現實與仿真系統開發:支持VR/AR環境中的視覺行為分析、注視點交互設計與虛擬角色控制,推動沉浸式技術在教育、訓練與娛樂領域的應用。
l 認知科學研究與神經工效評估:通過眼動行為分析認知負荷、決策過程與視覺搜索策略,支持工效學測評、廣告效果評估及學術研究。
l 醫療與無障礙技術研發:開展眼動交互在輔助通信、神經康復及無障礙設備中的應用研究,支持漸凍癥、脊髓損傷等用戶群體的技術解決方案。
整體概述
ErgoLAB人機環境同步平臺采用多模態數據時鐘同步技術,平臺可完成完整的實驗和測評流程,包括項目管理-試驗設計-同步采集-信號處理-數據分析-人因智能評估-可視化報告,支持基于云架構技術的團體測試和大數據管理。
ErgoLAB人機環境同步平臺采用主客觀結合多模態數據同步采集與多維度驗證的方法,數據實時同步種類包含大腦認知數據(EEG/BCI腦電儀與腦機接口邊緣計算設備、fNIRS/BCI近紅外腦成像儀),視覺數據(Eyetracker眼動儀與視線交互系統),生理數據(生理儀含:GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行為觀察、肢體動作與面部表情(基本情緒、情緒效價、微表情等)數據、生物力學數據(拉力、握力、捏力、壓力…),人機交互數據(包含人機界面交互行為數據以及對應的鍵盤操作,鼠標點擊、懸浮、劃入劃出等;移動終端人機交互行為數據以及對應的手指軌跡操作行為如點擊、縮放、滑動等;VR終端界面人機交互行為數據及對應的雙手操作拾取、丟棄、控制,VR空間行走軌跡)、以及多類型時空行為軌跡數據采集(包括室內、戶外、以及VR環境不同時空的行走軌跡、行車軌跡、訪問狀態以及視線交互、情感反應、交互操作行為等數據實時同步采集)、以及作業空間及作業環境數據(溫度、濕度、噪音、光照、大氣壓、濕度、粉塵等)等客觀量化數據;為科學研究及應用提供完整的數據指標。
將人工智能技術引入人因工程研究工具,人因工程行業更加深度,使得實驗環境不會受限于某一種設備或數據指標,采集分析不同典型行業或學科專業的人-機-環境系統交互過程中自然狀態下的人類行為數據,獲取更接近真實人員狀態的數據。平臺還提供覆蓋科研實驗全流程的功能模塊,包括項目管理、實驗設計、同步采集、數據分析、綜合統計和可視化報告,結合ErgoAI人因智能邊緣計算平臺為多模態人機環境研究提供一站式人因工程+人工智能解決方案。以ErgoLAB人機環境同步平臺和ErgoAI人因智能邊緣計算平臺為核心的多模態同步人因智能解決方案大大提高了實驗結果的信效度,同時節省了研究的人力、物力、時間,提高了研究與測評的整體效率。
基于ErgoAI人因智能多元時序算法底座與人因工程人機環境數據庫,構建人員特定狀態的預訓練模型,配合高靈活度的訓練方案管理功能,用戶能夠在統一環境中高效構建和優化模型。 從而實現對人員狀態的精準實時評估與預警,如負荷狀態、應激狀態、疲勞狀態、情景意識和注意能力等。
Kingfar公司介紹:
北京津發科技股份有限公司(津發科技)是專精特新“小巨人" ,新一輪第一批專精特新重點“小巨人"、知識產權優勢企業、高新技術企業、科技型中小企業;旗下包含北京人因智能工程技術研究院和北京人因工程設計院有限公司等新型科技研發機構,并聯合共建了北京市企業技術中心、北京本科高校產學研深度協同育人平臺、蘇州市重點實驗室、湖南省工程實驗室、山東省工程研究中心等多個科技創新平臺。
津發科技承擔和參與了多項國家重點研發計劃、工信部高質量發展專項、國家自然科學基金等課題基金項目。擔任全國信標委XR擴展現實標準化工作組副組長單位,工信部元宇宙標準化工作組關鍵技術組聯合組長單位;主持和參編國際、國家、行業和團體標準30余項。
津發科技創新研發了國產化自主可控的人因工程與人因智能邊緣計算系列信創產品與技術;通過了歐洲CE、美國FCC、歐盟ROHS,以及ISO9001、ISO14001、ISO45001等多項國際認證。累計榮獲30余項省部級新技術新產品認證和多項省部級科學技術獎勵;全球申請發明磚利超過530項,已授權120余項國際和國家發明磚利、150余項國際和國家注冊商標、130余項國家軟件著作權;已服務全國高等院校和裝備科技工業科研院所應用示范,并已支撐科研學者和科技工作者發表中英文學術論文超過1100篇。
電話
微信掃一掃