<object id="ycyu2"><wbr id="ycyu2"></wbr></object>
<sup id="ycyu2"></sup>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<object id="ycyu2"><wbr id="ycyu2"></wbr></object>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<sup id="ycyu2"><noscript id="ycyu2"></noscript></sup><acronym id="ycyu2"><div id="ycyu2"></div></acronym>
<object id="ycyu2"></object>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<sup id="ycyu2"></sup>
<object id="ycyu2"></object>
歡迎來(lái)到北京津發(fā)科技股份有限公司!
Products產(chǎn)品中心
首頁(yè) > 產(chǎn)品中心 > > 行為表情與動(dòng)作 > ErgoLABFACS面部表情分析系統

FACS面部表情分析系統

簡(jiǎn)要描述:ErgoLAB面部表情分析系統是一款專(zhuān)業(yè)的面部表情分析與狀態(tài)識別工具.系統結合機器學(xué)習算法與圖像識別技術(shù),利用面部肌肉特征點(diǎn)計算和分類(lèi)表情狀態(tài),自動(dòng)編碼多種基本表情,精確計算情感效價(jià),系統可實(shí)時(shí)檢測被試的頭部位置,面部特征點(diǎn),視線(xiàn)朝向,基本生物信息等,結合AI狀態(tài)識別進(jìn)一步實(shí)現對操作人員的分心,疲勞,應激等狀態(tài)的自動(dòng)識別以及特定環(huán)境條件下的預警反饋.

  • 產(chǎn)品型號:ErgoLAB
  • 廠(chǎng)商性質(zhì):生產(chǎn)廠(chǎng)家
  • 更新時(shí)間:2024-06-25
  • 訪(fǎng)  問(wèn)  量:6002

詳細介紹

品牌津發(fā)科技產(chǎn)地類(lèi)別國產(chǎn)
應用領(lǐng)域建材,交通,航天,汽車(chē)
    ErgoLAB面部表情分析系統

    一、產(chǎn)品概述

    ErgoLABFACS面部表情分析系統是主要的神經(jīng)行為測試工具之一,該系統是一款專(zhuān)業(yè)的工具軟件,可自動(dòng)分析面部表情和面部微表情動(dòng)作,同時(shí)系統內嵌情感效價(jià)識別模型,直接測量個(gè)體的“消極”、“中性”、“積極”的情感狀態(tài),還提供視線(xiàn)方向、頭部朝向、個(gè)人特征等數據。系統通過(guò)面部動(dòng)作編碼體系(FACS:FacialActionCodingSystem)將許多現實(shí)生活中人類(lèi)的表情進(jìn)行了分類(lèi),是如今面部表情的肌肉運動(dòng)的參照標準。系統具備情緒狀態(tài)識別、面部表情分析等功能,根據人臉的解剖學(xué)特點(diǎn),將其劃分成若干既相互獨立又相互聯(lián)系的運動(dòng)單元(AU),并分析了這些運動(dòng)單元的運動(dòng)特征及其所控制的主要區域以及與之相關(guān)的表情。
 
facail.png
 
    ErgoLABFACS系統是*自主研發(fā)技術(shù),具有多項國家發(fā)明與軟件著(zhù)作權,通過(guò)了省部級新技術(shù)新產(chǎn)品認證,歐洲CE、美國FCC、歐盟Rohs、ISO9001、ISO14001、OHSAS18001等多項管理體系認證。廣泛應用于心理與行為觀(guān)察、人因智能與人機互動(dòng)、人機界面設計與產(chǎn)品可用性測試、產(chǎn)品(廣告)營(yíng)銷(xiāo)、汽車(chē)駕駛(交通安全)、工業(yè)管理、工業(yè)設計、人因工程、消費行為學(xué)、應急行為研究、安全科學(xué)、環(huán)境行為學(xué)、建筑設計等多個(gè)領(lǐng)域科學(xué)研究。

 
facs.jpg
 
 

    ErgoLABFACS面部表情分析系統是一款專(zhuān)業(yè)的面部表情分析與情緒狀態(tài)識別科研工具。系統通過(guò)圖像識別技術(shù)結合機器學(xué)習等人工智能算法,利用面部肌肉特征點(diǎn)計算和分類(lèi)表情狀態(tài),自動(dòng)編碼多種基本表情、精確計算情感效價(jià);并通過(guò)龐大的數據庫使得模型預測的情緒準確率高達93.3%。通過(guò)計算多維度數據特征,結合AI狀態(tài)識別進(jìn)一步研發(fā)可實(shí)現對操作人員的分心、疲勞、應激等狀態(tài)的自動(dòng)識別以及特定環(huán)境條件下的預警反饋。ErgoLABFACS系統采用*表情識別算法,開(kāi)發(fā)團隊在軟件功能及算法定制開(kāi)發(fā)上積累了豐富的開(kāi)發(fā)實(shí)施經(jīng)驗,可以根據用戶(hù)要求對軟件進(jìn)行定制化設計開(kāi)發(fā),確保滿(mǎn)足用戶(hù)科研需要。
 
 
face4.png
 

    系統可以嵌入ErgoLAB行為觀(guān)察分析系統和人機環(huán)境同步平臺,支持在同一個(gè)軟件界面同步采集與分析多維數據源,包括行為觀(guān)察視頻、生理數據、眼動(dòng)數據、腦電數據、動(dòng)作捕捉、生物力學(xué)、作業(yè)環(huán)境數據等,包含多終端API/TTL實(shí)時(shí)行為編碼與事件標記應用程序,并提供開(kāi)放數據同步接口可供二次開(kāi)發(fā)。

    隨著(zhù)神經(jīng)行為科學(xué)的迅猛發(fā)展,人們開(kāi)始嘗試用神經(jīng)行為學(xué)工具來(lái)測試各種商業(yè)行為表現。主要集中應用在對消費者偏好和滿(mǎn)意度的測試,如消費者觀(guān)看廣告內容時(shí)的表情和購買(mǎi)意愿的關(guān)系;消費者聞不同氣味的香水后的表情反應與對香水偏好的關(guān)系;聽(tīng)眾的表情與音樂(lè )喜好的關(guān)系等眾多研究領(lǐng)域。情感預測態(tài)度和行動(dòng)針對視頻圖像中的每一幀,FACS提供面部表情的7種關(guān)鍵指標的詳實(shí)數據,以及6種面部特征統計數據。這些參數可以洞察人們的情緒狀態(tài),并提高消費品、廣告、媒體、軟件的商業(yè)價(jià)值。

    二、產(chǎn)品特點(diǎn)

    1、面部表情自動(dòng)編碼

    ●面部表情自定義處理參數模塊,包括實(shí)時(shí)處理及離線(xiàn)處理,如數據插值、中值濾波、均值濾波等,支持自定義程度閾值、合并閾值、以及大腦加工時(shí)間。

    ●自動(dòng)識別并編碼七種基本表情,包括高興、悲傷、厭惡、恐懼、驚訝、生氣、參與度,以0至100%區間計算表情程度值;

    ●計算多種微表情數據,如抬起眉毛內角、抬起眉毛外角、皺眉(降低眉毛)、上眼瞼上升、臉頰提升、眼輪匝肌外圈收緊/內圈收緊、皺鼻、拉動(dòng)上嘴唇向上運動(dòng)、拉動(dòng)人中部位的皮膚向上、拉動(dòng)嘴角傾斜向上、急劇的嘴唇拉動(dòng)、收緊嘴角、拉動(dòng)嘴角向下傾斜、拉動(dòng)下唇向下、推動(dòng)下唇向上、撅嘴、嘴角拉伸、收緊雙唇向外翻、眼睛擴大、張嘴等。

 
facialbq.jpg
 

    2、狀態(tài)識別與預警反饋

    ●系統內嵌情感效價(jià)計算模型,精確識別積極、中性、消極情感,客觀(guān)評價(jià)個(gè)體情緒狀態(tài),與多模態(tài)數據形成客觀(guān)有效的印證關(guān)系;

    ●系統可自動(dòng)檢測操作人員的頭部位置三軸數據:俯仰角、偏航角、翻滾角;系統能夠自動(dòng)檢測實(shí)時(shí)跟蹤操作人員頭部朝向,包括俯仰角、偏航角、翻滾角,并測定注視方向,計算瞳孔間距以及注意狀態(tài)檢測;

    ●結合人工智能與機器學(xué)習算法,進(jìn)一步實(shí)現對操作人員的分心、疲勞、應激等狀態(tài)的自動(dòng)識別以及特定環(huán)境條件下的預警反饋。

 
wz1.png
 

    3、面部表情分析與統計屬性識別

    ●實(shí)時(shí)可視化的表情編碼:系統實(shí)時(shí)計算操作人員的表情狀態(tài)與情緒效價(jià),在實(shí)驗過(guò)程中,主試可實(shí)時(shí)查看與監測操作人員的表情程度與情緒變化,并做出相應的任務(wù)調整與行為預警。

    ●自動(dòng)統計面部表情數據:包括每種面部表情的開(kāi)始時(shí)間、結束時(shí)間、
首次發(fā)生的時(shí)間、總發(fā)生次數、頻率、每次發(fā)生的時(shí)間、總的持續時(shí)間、總的持續時(shí)間在全部觀(guān)察時(shí)間中所占的百分比、短的持續時(shí)間、長(cháng)的持續時(shí)間、平均持續時(shí)間、持續時(shí)間的標準差、持續時(shí)間間隔置信區間等數據。

    ●自動(dòng)檢測操作人員的整個(gè)面部特征點(diǎn),并輸出原始坐標X、Y,以及視線(xiàn)位置;

    ●系統包含年齡分類(lèi)器,支持實(shí)時(shí)計算并識別多個(gè)年齡段狀態(tài),可智能識別多種被試屬性信息,如性別、是否佩戴眼鏡。

    4、多維度數據統計與二次開(kāi)發(fā)

    ●多維度數據交叉統計:系統支持面部表情數據與其他多模態(tài)數據(眼動(dòng)、腦電、生理、動(dòng)補、行為等)的同步交叉分析,多個(gè)數據源在同一平臺界面呈現,在采集的同時(shí)間軸數據里選擇相應的時(shí)間片段,可同步觀(guān)察和統計分析所有數據流之間的相關(guān)關(guān)系;

    ●具有API開(kāi)發(fā)接口:面部表情原始數據與狀態(tài)分析結果可以被其他程序實(shí)時(shí)訪(fǎng)問(wèn),可使其它程序對被試者的情緒進(jìn)行反饋。

 
表情.png
 

    三、應用領(lǐng)域

    ●心理學(xué)與神經(jīng)科學(xué)研究;

    ●人因工程與工效學(xué)研究;

    ●人因智能與人機交互研究;

    ●智能交通與駕駛行為研究;

    ●建筑人居健康與環(huán)境行為研究;

    ●市場(chǎng)研究與消費者調研;

    ●用戶(hù)體驗與交互研究;

    ●教育研究;

    ●臨床研究;

    ●嬰兒研究;

    ●體育運動(dòng)研究;

    ●沉浸式VR研究;
 

產(chǎn)品咨詢(xún)

留言框

  • 產(chǎn)品:

  • 您的單位:

  • 您的姓名:

  • 聯(lián)系電話(huà):

  • 常用郵箱:

  • 省份:

  • 詳細地址:

  • 補充說(shuō)明:

  • 驗證碼:

    請輸入計算結果(填寫(xiě)阿拉伯數字),如:三加四=7

人因工程與工效學(xué)

人機工程、人的失誤與系統安全、人機工效學(xué)、工作場(chǎng)所與工效學(xué)負荷等

安全人機工程

從安全的角度和著(zhù)眼點(diǎn),運用人機工程學(xué)的原理和方法去解決人機結合面安全問(wèn)題

交通安全與駕駛行為

人-車(chē)-路-環(huán)境系統的整體研究,有助于改善駕駛系統設計、提高駕駛安全性、改善道路環(huán)境等

用戶(hù)體驗與交互設計

ErgoLAB可實(shí)現桌面端、移動(dòng)端以及VR虛擬環(huán)境中的眼動(dòng)、生理、行為等數據的采集,探索產(chǎn)品設計、人機交互對用戶(hù)體驗的影響

建筑與環(huán)境行為

研究如何通過(guò)城市規劃與建筑設計來(lái)滿(mǎn)足人的行為心理需求,以創(chuàng )造良好環(huán)境,提高工作效率

消費行為與神經(jīng)營(yíng)銷(xiāo)

通過(guò)ErgoLAB采集和分析消費者的生理、表情、行為等數據,了解消費者的認知加工與決策行為,找到消費者行為動(dòng)機,從而產(chǎn)生恰當的營(yíng)銷(xiāo)策略使消費者產(chǎn)生留言意向及留言行為

郵件聯(lián)系我們:sales@kingfar.cn

掃一掃,關(guān)注微信
©2024 北京津發(fā)科技股份有限公司 版權所有 All Rights Reserved. 備案號:京ICP備14045309號-1
久久亚洲精品无码AⅤ电影
<object id="ycyu2"><wbr id="ycyu2"></wbr></object>
<sup id="ycyu2"></sup>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<object id="ycyu2"><wbr id="ycyu2"></wbr></object>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<sup id="ycyu2"><noscript id="ycyu2"></noscript></sup><acronym id="ycyu2"><div id="ycyu2"></div></acronym>
<object id="ycyu2"></object>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<sup id="ycyu2"></sup>
<object id="ycyu2"></object>