亚洲天堂在线电影_在线观看成年人网站_超碰中文字幕在线_奇米狠狠色狠狠色综合日日_欧美一级爽快片淫片在线观看_国产成人精品一区二区视频免费_www.久久精品.com_国产精品不卡视频_www.91在线观看

您好!歡迎訪問北京津發(fā)科技股份有限公司網(wǎng)站!

當(dāng)前位置:首頁   >  產(chǎn)品中心  >    >  ErgoAI智能產(chǎn)品人機交互評估實驗室  >  ErgoAI®人因智能實訓(xùn)平臺

ErgoAI®人因智能實訓(xùn)平臺

簡要描述:ErgoAI®人因智能實訓(xùn)平臺是面向機器人、腦機接口、智能座艙、智慧醫(yī)療、智能家居等領(lǐng)域的職業(yè)教育人因智能實訓(xùn)核心工具,以多模態(tài)數(shù)據(jù)同步與融合為基礎(chǔ),結(jié)合人工智能與邊緣計算技術(shù),構(gòu)建從數(shù)據(jù)感知、多模態(tài)特征融合到智能應(yīng)用的完整實訓(xùn)體系。平臺通過整合腦電、生理、語音、眼動、肌電、動作等多模態(tài)數(shù)據(jù),實現(xiàn)對人機交互深度理解與狀態(tài)感知,推動具身智能、腦機接口、多模態(tài)智能交互、人因測評等技術(shù)的教學(xué)與應(yīng)用創(chuàng)新。

  • 產(chǎn)品型號:
  • 廠商性質(zhì):生產(chǎn)廠家
  • 更新時間:2025-09-30
  • 訪  問  量:88

詳細(xì)介紹

品牌津發(fā)科技產(chǎn)地國產(chǎn)
加工定制

ErgoAI®人因智能實訓(xùn)平臺是面向機器人、腦機接口、智能座艙、智慧醫(yī)療、智能家居等領(lǐng)域的職業(yè)教育人因智能實訓(xùn)核心工具,以多模態(tài)數(shù)據(jù)同步與融合為基礎(chǔ),結(jié)合人工智能與邊緣計算技術(shù),構(gòu)建從數(shù)據(jù)感知、多模態(tài)特征融合到智能應(yīng)用的完整實訓(xùn)體系。平臺通過整合腦電、生理、語音、眼動、肌電、動作等多模態(tài)數(shù)據(jù),實現(xiàn)對人機交互深度理解與狀態(tài)感知,推動具身智能、腦機接口、多模態(tài)智能交互、人因測評等技術(shù)的教學(xué)與應(yīng)用創(chuàng)新。

平臺組成

1)人因智能實訓(xùn)平臺,覆蓋實訓(xùn)流程完整鏈路

平臺可以適用于不同的實訓(xùn)環(huán)境,如基礎(chǔ)實訓(xùn)室、元宇宙實訓(xùn)室、具身智能實訓(xùn)室、智能駕駛實訓(xùn)室、以及更多未來產(chǎn)業(yè)實訓(xùn)室,系統(tǒng)是涵蓋了實訓(xùn)資源庫、人因智能感知、人因智能實訓(xùn)、以及工程化應(yīng)用全流程的一體化教學(xué)平臺。

ErgoAI®人因智能實訓(xùn)平臺 

平臺特點

全流程覆蓋:從實驗設(shè)計、信號采集、數(shù)據(jù)處理、模型訓(xùn)練到應(yīng)用部署,實現(xiàn)實訓(xùn)教學(xué)閉環(huán)。

多模態(tài)數(shù)據(jù)融合:支持腦電、眼動、肌電、生理信號、動作捕捉、語音交互、表情識別等多種數(shù)據(jù)類型同步采集與分析。

強大的信號處理能力:包括降噪、濾波、時域/頻域/非線性分析、特征工程、數(shù)據(jù)清洗與標(biāo)注等功能。

AI驅(qū)動的智能分析:集成AI模型訓(xùn)練、驗證與部署模塊,支持人員狀態(tài)識別(如疲勞、負(fù)荷、應(yīng)激、注意力等)實訓(xùn)及教學(xué)。

人因數(shù)據(jù)庫與算法底座:基于ErgoAI人因智能多元時序算法底座與人因工程人機環(huán)境數(shù)據(jù)庫,構(gòu)建人員特定狀態(tài)的預(yù)訓(xùn)練模型,配合高靈活度的訓(xùn)練方案管理功能,學(xué)生能夠在統(tǒng)一環(huán)境中高效構(gòu)建和優(yōu)化模型。

邊緣計算與可穿戴支持:提供邊緣計算終端(ErgoAI Edge)與穿戴設(shè)備(ErgoAI Wearable),支持移動場景下的人因數(shù)據(jù)采集與實時處理實訓(xùn)教學(xué)。

模塊化與可擴(kuò)展設(shè)計:包括感知、統(tǒng)計、實驗設(shè)計、應(yīng)用部署等模塊,支持自定義刺激內(nèi)容和實驗范式,適應(yīng)不同實訓(xùn)需求。

跨領(lǐng)域應(yīng)用支持:應(yīng)用于智慧醫(yī)療、智慧交通、智慧家居、智慧空間等多個應(yīng)用場景。

豐富的配套資源:提供實訓(xùn)指導(dǎo)書、快速入門手冊、數(shù)據(jù)處理教程等,降低實訓(xùn)門檻。

(2)ErgoAI人因智能多模態(tài)同步測試儀

產(chǎn)品特點

支持本地與云端數(shù)據(jù)庫部署,具備數(shù)據(jù)上傳、存儲及管理能力;

提供從數(shù)據(jù)采集、預(yù)處理、模型訓(xùn)練、部署驗證到實時推理的全流程人因智能開發(fā)環(huán)境;

內(nèi)置單模態(tài)與多模態(tài)數(shù)據(jù)預(yù)處理算法庫、人因感知模型庫,支持第三方數(shù)據(jù)與任務(wù)接入;

搭載高算力邊緣計算單元, 1200TOPS 算力;,支持多模態(tài)人因數(shù)據(jù)的實時處理與智能推理;

人因智能數(shù)據(jù)感知,廣泛兼容腦電、近紅外、生理、音視頻、行為、環(huán)境等多類數(shù)據(jù)源,支持?jǐn)U展任意數(shù)據(jù)源,可以接入第三方任務(wù)數(shù)據(jù),具備良好的擴(kuò)展性與系統(tǒng)集成能力

ErgoAI®人因智能實訓(xùn)平臺ErgoAI®人因智能實訓(xùn)平臺

平臺應(yīng)用

掌握多模態(tài)智能交互、具身智能、人機交互測評等技術(shù)

技術(shù)能力:

多模態(tài)數(shù)據(jù)協(xié)同處理能力:掌握腦電、語音、視覺、生理等多模態(tài)數(shù)據(jù)的采集、處理與特征融合技術(shù),理解跨模態(tài)數(shù)據(jù)互補性與冗余性。

跨模態(tài)模型開發(fā)能力:掌握多模態(tài)深度學(xué)習(xí)框架,設(shè)計面向?qū)嶋H場景的融合模型。

工程能力:

“以人為中心"的智能系統(tǒng)設(shè)計、操控與測評能力:基于多模態(tài)數(shù)據(jù),在智能系統(tǒng)設(shè)計中融入人因工程的理念,促進(jìn)人機協(xié)同與人機融合。

人因智能模型跨領(lǐng)域應(yīng)用能力:結(jié)合具身機器人、元宇宙、智能座艙、醫(yī)療康復(fù)等領(lǐng)域的實訓(xùn)項目,掌握人因智能模型部署與應(yīng)用能力,提升學(xué)生面向未來產(chǎn)業(yè)的競爭力。

ErgoLAB多模態(tài)同步方案:

整體概述

ErgoLAB人機環(huán)境同步平臺采用多模態(tài)數(shù)據(jù)時鐘同步技術(shù),平臺可完成完整的實驗和測評流程,包括項目管理-試驗設(shè)計-同步采集-信號處理-數(shù)據(jù)分析-人因智能評估-可視化報告,支持基于云架構(gòu)技術(shù)的團(tuán)體測試和大數(shù)據(jù)管理。

ErgoLAB人機環(huán)境同步平臺采用主客觀結(jié)合多模態(tài)數(shù)據(jù)同步采集與多維度驗證的方法,數(shù)據(jù)實時同步種類包含大腦認(rèn)知數(shù)據(jù)(EEG/BCI腦電儀與腦機接口邊緣計算設(shè)備、fNIRS/BCI近紅外腦成像儀),視覺數(shù)據(jù)(Eyetracker眼動儀與視線交互系統(tǒng)),生理數(shù)據(jù)(生理儀含:GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行為觀察、肢體動作與面部表情(基本情緒、情緒效價、微表情等)數(shù)據(jù)、生物力學(xué)數(shù)據(jù)(拉力、握力、捏力、壓力…),人機交互數(shù)據(jù)(包含人機界面交互行為數(shù)據(jù)以及對應(yīng)的鍵盤操作,鼠標(biāo)點擊、懸浮、劃入劃出等;移動終端人機交互行為數(shù)據(jù)以及對應(yīng)的手指軌跡操作行為如點擊、縮放、滑動等;VR終端界面人機交互行為數(shù)據(jù)及對應(yīng)的雙手操作拾取、丟棄、控制,VR空間行走軌跡)、以及多類型時空行為軌跡數(shù)據(jù)采集(包括室內(nèi)、戶外、以及VR環(huán)境不同時空的行走軌跡、行車軌跡、訪問狀態(tài)以及視線交互、情感反應(yīng)、交互操作行為等數(shù)據(jù)實時同步采集)、以及作業(yè)空間及作業(yè)環(huán)境數(shù)據(jù)(溫度、濕度、噪音、光照、大氣壓、濕度、粉塵等)等客觀量化數(shù)據(jù);為科學(xué)研究及應(yīng)用提供完整的數(shù)據(jù)指標(biāo)。

ErgoAI®人因智能實訓(xùn)平臺



ErgoAI人因智能

將人工智能技術(shù)引入人因工程研究工具,人因工程行業(yè)更加深度,使得實驗環(huán)境不會受限于某一種設(shè)備或數(shù)據(jù)指標(biāo),采集分析不同典型行業(yè)或?qū)W科專業(yè)的人-機-環(huán)境系統(tǒng)交互過程中自然狀態(tài)下的人類行為數(shù)據(jù),獲取更接近真實人員狀態(tài)的數(shù)據(jù)。平臺還提供覆蓋科研實驗全流程的功能模塊,包括項目管理、實驗設(shè)計、同步采集、數(shù)據(jù)分析、綜合統(tǒng)計和可視化報告,結(jié)合ErgoAI人因智能邊緣計算平臺為多模態(tài)人機環(huán)境研究提供一站式人因工程+人工智能解決方案。以ErgoLAB人機環(huán)境同步平臺和ErgoAI人因智能邊緣計算平臺為核心的多模態(tài)同步人因智能解決方案大大提高了實驗結(jié)果的信效度,同時節(jié)省了研究的人力、物力、時間,提高了研究與測評的整體效率。

 ErgoAI®人因智能實訓(xùn)平臺


 

ErgoAI®人因智能實訓(xùn)平臺


基于ErgoAI人因智能多元時序算法底座與人因工程人機環(huán)境數(shù)據(jù)庫,構(gòu)建人員特定狀態(tài)的預(yù)訓(xùn)練模型,配合高靈活度的訓(xùn)練方案管理功能,用戶能夠在統(tǒng)一環(huán)境中高效構(gòu)建和優(yōu)化模型。 從而實現(xiàn)對人員狀態(tài)的精準(zhǔn)實時評估與預(yù)警,如負(fù)荷狀態(tài)、應(yīng)激狀態(tài)、疲勞狀態(tài)、情景意識和注意能力等。


Kingfar公司介紹:

北京津發(fā)科技股份有限公司(津發(fā)科技)是專精特新“小巨人" ,新一輪第一批專精特新重點“小巨人"、知識產(chǎn)權(quán)優(yōu)勢企業(yè)、高新技術(shù)企業(yè)、科技型中小企業(yè);旗下包含北京人因智能工程技術(shù)研究院和北京人因工程設(shè)計院有限公司等新型科技研發(fā)機構(gòu),并聯(lián)合共建了北京市企業(yè)技術(shù)中心、北京本科高校產(chǎn)學(xué)研深度協(xié)同育人平臺、蘇州市重點實驗室、湖南省工程實驗室、山東省工程研究中心等多個科技創(chuàng)新平臺。

津發(fā)科技承擔(dān)和參與了多項國家重點研發(fā)計劃、工信部高質(zhì)量發(fā)展專項、國家自然科學(xué)基金等課題基金項目。擔(dān)任全國信標(biāo)委XR擴(kuò)展現(xiàn)實標(biāo)準(zhǔn)化工作組副組長單位,工信部元宇宙標(biāo)準(zhǔn)化工作組關(guān)鍵技術(shù)組聯(lián)合組長單位;主持和參編國際、國家、行業(yè)和團(tuán)體標(biāo)準(zhǔn)30余項。

津發(fā)科技創(chuàng)新研發(fā)了國產(chǎn)化自主可控的人因工程與人因智能邊緣計算系列信創(chuàng)產(chǎn)品與技術(shù);通過了歐洲CE、美國FCC、歐盟ROHS,以及ISO9001、ISO14001、ISO45001等多項國際認(rèn)證。累計榮獲30余項省部級新技術(shù)新產(chǎn)品認(rèn)證和多項省部級科學(xué)技術(shù)獎勵;全球申請超過530項,已授權(quán)120余項國際和國家發(fā)明、150余項國際和國家注冊商標(biāo)、130余項國家軟件著作權(quán);已服務(wù)全國高等院校和裝備科技工業(yè)科研院所應(yīng)用示范,并已支撐科研學(xué)者和科技工作者發(fā)表中英文學(xué)術(shù)論文超過1100篇



產(chǎn)品咨詢

留言框

  • 產(chǎn)品:

  • 您的單位:

  • 您的姓名:

  • 聯(lián)系電話:

  • 常用郵箱:

  • 省份:

  • 詳細(xì)地址:

  • 補充說明:

  • 驗證碼:

    請輸入計算結(jié)果(填寫阿拉伯?dāng)?shù)字),如:三加四=7

人因工程與工效學(xué)

人機工程、人的失誤與系統(tǒng)安全、人機工效學(xué)、工作場所與工效學(xué)負(fù)荷等

安全人機工程

從安全的角度和著眼點,運用人機工程學(xué)的原理和方法去解決人機結(jié)合面安全問題

交通安全與駕駛行為

人-車-路-環(huán)境系統(tǒng)的整體研究,有助于改善駕駛系統(tǒng)設(shè)計、提高駕駛安全性、改善道路環(huán)境等

用戶體驗與交互設(shè)計

ErgoLAB可實現(xiàn)桌面端、移動端以及VR虛擬環(huán)境中的眼動、生理、行為等數(shù)據(jù)的采集,探索產(chǎn)品設(shè)計、人機交互對用戶體驗的影響

建筑與環(huán)境行為

研究如何通過城市規(guī)劃與建筑設(shè)計來滿足人的行為心理需求,以創(chuàng)造良好環(huán)境,提高工作效率

消費行為與神經(jīng)營銷

通過ErgoLAB采集和分析消費者的生理、表情、行為等數(shù)據(jù),了解消費者的認(rèn)知加工與決策行為,找到消費者行為動機,從而產(chǎn)生恰當(dāng)?shù)臓I銷策略使消費者產(chǎn)生留言意向及留言行為

掃一掃,關(guān)注微信

郵箱:sales@kingfar.cn

電話:4008113950

版權(quán)所有©2025 北京津發(fā)科技股份有限公司 All Rights Reserved     備案號:京ICP備14045309號-9     sitemap.xml     管理登陸     技術(shù)支持:儀表網(wǎng)