欧美色综合一区二区三区,色偷偷av,国产精选污视频在线观看,久久精品国产亚洲AV麻豆导航

返回首頁 在線留言 聯(lián)系我們

產(chǎn)品搜索 更多

產(chǎn)品目錄

首頁 > 技術(shù)文章 > AI看懂你的臉,看懂你的眼——用戶體驗(yàn)云測試平臺(tái)

技術(shù)文章

AI看懂你的臉,看懂你的眼——用戶體驗(yàn)云測試平臺(tái)
更新時(shí)間:2022-07-28   點(diǎn)擊次數(shù):1116次

1.    引言     

視覺是我們最重要的感官之一,使我們能夠看到我們周圍的世界。我們的眼球運(yùn)動(dòng)包含重要的信息,我們的面部表情也是如此。通過觀察用戶的眼球運(yùn)動(dòng),以及注視和面部表情,我們可以更多地了解潛意識過程。這可以通過眼球追蹤技術(shù)來完成。結(jié)合面部表情分析技術(shù),這為用戶體驗(yàn)、客戶偏好和欣賞提供了寶貴的見解。

長久以來表情和眼動(dòng)分析就被用于用戶體驗(yàn)研究的相關(guān)項(xiàng)目中,表情和眼動(dòng)的定量化分析方法,能夠幫助用戶研究人員,更加準(zhǔn)確的了解和描述用戶的產(chǎn)品使用過程,為產(chǎn)品原型、產(chǎn)品素材、宣發(fā)材料等各種材料提供更加科學(xué)和客觀的驗(yàn)證結(jié)果。

比如MEUX在21年與諾達(dá)思合作的一項(xiàng)研究中就通過眼動(dòng)的方式探究視頻類APP,標(biāo)題在視頻窗口上方或下方,對用戶瀏覽模式的影響。

還有用戶體驗(yàn)界大名鼎鼎的尼爾森諾曼集團(tuán),在2020年發(fā)表的文章中提到,他們在眼動(dòng)分析項(xiàng)目中,發(fā)現(xiàn)用戶在瀏覽產(chǎn)品頁面時(shí)會(huì)存在“割草機(jī)模式”的瀏覽習(xí)慣,也即習(xí)慣從頁面內(nèi)容左上角開始,向右移動(dòng)到末尾,然后向下折返瀏覽。

 

1.png

 

還有早在06年的時(shí)候,魯汶大學(xué)的研究者就是用FaceReader軟件,對用戶產(chǎn)品使用過程中的愉悅體驗(yàn)進(jìn)行測量,發(fā)現(xiàn)用戶瀏覽網(wǎng)站時(shí),看到網(wǎng)站相關(guān)設(shè)計(jì)亮點(diǎn)時(shí),會(huì)不自覺地流露出積極的面部表情,當(dāng)用戶遇到困難或者對內(nèi)容感到困惑時(shí),會(huì)流露出負(fù)面的面部表情。

 

2.png

 

1.1什么是眼動(dòng)分析? 

      眼動(dòng)追蹤是一種測量眼球運(yùn)動(dòng)的技術(shù),可以知道一個(gè)人在看什么,他們在看什么,以及他們的目光在特定位置停留了多長時(shí)間。用戶視線停止移動(dòng)的區(qū)域稱為“注視”,注視是我們視覺注意加工信息的最基本單元,而用戶眼睛在注視點(diǎn)之間的移動(dòng)稱為“眼跳”。通過可視化呈現(xiàn),我們可以看到眼睛在頁面上的瀏覽路徑。

通過觀察我們?nèi)绾伍喿x文本,可以理解“注視”和“眼跳”這兩個(gè)概念。我們經(jīng)常聽到高效的讀者“掃描”文本。在眼球運(yùn)動(dòng)方面,一個(gè)高效的讀者往往有較小的注視點(diǎn)和更長的眼跳,而較弱的讀者往往有更長的注視時(shí)間和更短的眼跳。差異可以在下圖中清楚地看到。左邊的那個(gè)是一個(gè)更強(qiáng)的讀者,可以快速輕松地在文本中移動(dòng),而右邊的那個(gè)是一個(gè)較弱的讀者。

 

3.png

 

      眼動(dòng)分析一般是通過一個(gè)專用的硬件——眼動(dòng)儀,捕捉用戶在使用產(chǎn)品時(shí),用戶的注視點(diǎn)位置。眼動(dòng)儀是一個(gè)比較精密的科研儀器,集成了外攝像機(jī)、紅外燈,以及最重要的眼球識別的技術(shù)。眼動(dòng)分析的開展離不開專業(yè)的硬件,這也就意味著設(shè)備的使用成本較高,并且相關(guān)專業(yè)人員的培養(yǎng)也是不小的投入。由于這類的問題,使得眼動(dòng)技術(shù)雖然能很好反應(yīng)用戶使用產(chǎn)品的完整過程,但只有在一些較大的公司才會(huì)使用到該技術(shù)。

1.2什么是面部表情分析?

     面部表情分析則是通過一個(gè)AI算法,學(xué)習(xí)了人類分類表情的基本規(guī)則,進(jìn)而定量化的輸出用戶在使用產(chǎn)品期間,或者關(guān)鍵的事件點(diǎn)上,表情變化的基本強(qiáng)度值。該算法能通過一個(gè)普通攝像機(jī)拍攝的畫面,自動(dòng)找到用戶面部500個(gè)特征點(diǎn),并進(jìn)行建模,進(jìn)而計(jì)算出用戶7中基本表情的強(qiáng)度值,和20個(gè)微表情動(dòng)作單元的變化。由于是純軟件的算法,因此已經(jīng)有云分析平臺(tái)了,使用者只需要上傳自己希望測試的材料或者網(wǎng)頁連接,便能夠輕松完成大樣本的定量表情測試。

1.3結(jié)合兩種手段的優(yōu)勢

       這兩種生物測量的技術(shù)手段在實(shí)際用戶體驗(yàn)研究項(xiàng)目中各有優(yōu)劣,眼動(dòng)能夠較好的還原用戶的認(rèn)知過程,比如用戶在尋找自己訂單信息時(shí),首先會(huì)在哪些地方尋找,他看到哪些信息后,會(huì)產(chǎn)生點(diǎn)擊“我的”這個(gè)操作,這樣認(rèn)知信息的還原基本能回到產(chǎn)品體驗(yàn)中遇到的70%的問題,而另外30%則是用戶使用產(chǎn)品過程中的情緒感受的結(jié)果。比如用戶尋找訂單時(shí),哪些關(guān)鍵時(shí)刻讓他產(chǎn)生眉毛下降的表情動(dòng)作,哪些版本的界面設(shè)計(jì)能讓用戶在較高情緒效價(jià)水平下完成任務(wù)。

       因此很多的研究者也試圖同時(shí)使用這兩種工具,來進(jìn)行產(chǎn)品相關(guān)研究,比如2015年的時(shí)候蒙德拉貢大學(xué)的研究者就提出了將兩者結(jié)合的方法,并將這種方法稱為眼臉分析系統(tǒng),研究者使用這樣的多維度測量手段,能更加全面的對產(chǎn)品進(jìn)行體驗(yàn)評估。

 

4.png

 

Eyeface由兩個(gè)計(jì)算機(jī)工作站組成,每個(gè)工作站都運(yùn)行特定的工具,即眼球追蹤和面部表情識別。對于這項(xiàng)研究工作中,Facereader的網(wǎng)絡(luò)攝像頭安裝在眼球追蹤設(shè)備的頂部。因此對普通的用戶研究人員,要使用這樣的多通道的分析技術(shù),幾乎不現(xiàn)實(shí),而所有問題的癥結(jié)就在于眼動(dòng)分析需要有額外的硬件,沒法做到*的遠(yuǎn)程在線收集數(shù)據(jù)。

隨著近年來AI技術(shù)的逐步發(fā)展,和相關(guān)模型算法的完善,通過一個(gè)普通攝像頭識別用戶的眼動(dòng)逐漸變得可行,基于這樣的背景下,諾達(dá)思公司聯(lián)合了位于阿姆斯特丹的VicarVision,一起開發(fā)了一套通過普通攝像頭識別用戶眼動(dòng)的算法,并將該算法集成到了在線面部表情分析平臺(tái)中,使得以往只能在實(shí)驗(yàn)室由專業(yè)研究者開展的測試,變成了一個(gè)人人都能夠使用的在線分析平臺(tái)。

2.    AI同時(shí)識別眼動(dòng)和表情的原理介紹

該技術(shù)發(fā)源于荷蘭地方政府資助的一個(gè)科研ICT高科技項(xiàng)目,NoldusVicarVision花費(fèi)了近24個(gè)月,開發(fā)一個(gè)突破性的系統(tǒng),使用簡單的網(wǎng)絡(luò)攝像頭跟蹤眼球運(yùn)動(dòng)。結(jié)合現(xiàn)有的面部表情分析,就能夠提供先進(jìn)的解決方案,用于測量使用筆記本電腦、平板電腦或智能手機(jī)的用戶的體驗(yàn)感受。

 

 

2.1評估瞳孔大?。阂豁?xiàng)具有挑戰(zhàn)性的任務(wù)

對于瞳孔直徑的估計(jì),我們實(shí)施并分析了兩種方法:一種是基于使用經(jīng)典計(jì)算機(jī)視覺(經(jīng)典CV)的方法,一種是基于深度學(xué)習(xí)的方法。兩種方法都對虹膜圖像進(jìn)行了分割,使虹膜圖像中間的區(qū)域與眼睛的瞳孔相近,見深度學(xué)習(xí)方法(左上圖)和經(jīng)典CV方法(右圖)的處理步驟示例。在測試中,使用了手動(dòng)標(biāo)注的圖片和Tobii nano pro(眼動(dòng)儀)瞳孔直徑輸出??梢苑治龅膱D片數(shù)量有差異,深度學(xué)習(xí)方法可以分析*的圖片,經(jīng)典方法可以分析70%的圖片。

在整個(gè)數(shù)據(jù)集中,我們對結(jié)果進(jìn)行了充分的混合。一些被試的某些任務(wù),測量的瞳孔大小和真值之間有很強(qiáng)的相關(guān)性(r = 0.86),但其他的任務(wù)卻沒有顯示出任何相關(guān)性。平均來說,有一個(gè)中度的正相關(guān),兩種方法的表現(xiàn)相似(DLr = 0.39 vs. CVr = 0.37)。有幾個(gè)被試中發(fā)現(xiàn)了強(qiáng)烈的正相關(guān),但這些人都是藍(lán)眼睛,沒有眼鏡。瞳孔和周圍虹膜之間的強(qiáng)烈對比對于瞳孔大小的估計(jì)很重要。這對顏色較深的眼睛和用光反射覆蓋瞳孔的眼睛來說是一個(gè)挑戰(zhàn)。相比之下,紅外光有一個(gè)優(yōu)勢,因?yàn)椴豢梢姷募t外光可以照亮虹膜而不干擾瞳孔的大小。另一個(gè)困難是缺乏合適的數(shù)據(jù)集。大多數(shù)可用的數(shù)據(jù)集只存在于紅外線中,缺乏可見光的特征問題。

我們的研究表明,在某些情況下,從USB攝像頭中估計(jì)瞳孔直徑是可能的,但還沒有準(zhǔn)備好實(shí)施。未來的研究可以通過增加可用數(shù)據(jù)量和進(jìn)一步改進(jìn)預(yù)處理步驟來優(yōu)化當(dāng)前的方法。

2.2眼動(dòng)跟蹤:已經(jīng)可以落地使用

我們開發(fā)的EyeReader算法,可以估計(jì)用戶注視方向,并將其與屏幕上的圖像聯(lián)系起來。神經(jīng)網(wǎng)絡(luò)通過許多標(biāo)記的屏幕位置和視頻記錄的數(shù)據(jù)集進(jìn)行訓(xùn)練,以學(xué)習(xí)眼睛的圖像和注視向量之間的關(guān)系。在一個(gè)校準(zhǔn)任務(wù)的幫助下,用戶跟隨屏幕上的點(diǎn),屏幕上的2D XY點(diǎn)可以被定量解碼。用我們自己的驗(yàn)證數(shù)據(jù)集進(jìn)行的測試表明,該系統(tǒng)預(yù)測屏幕上的注視點(diǎn)的平均偏差為2.4厘米(屏幕的平均偏差為5.2%)。這與市面上其他競爭對手相當(dāng)。結(jié)果顯示,與單獨(dú)的屏幕相比,在筆記本電腦上執(zhí)行的任務(wù)的準(zhǔn)確度略高(見下面的左圖)。這可能是由于筆記本電腦的尺寸和固定位置。藍(lán)色和棕色的眼睛顏色之間沒有大的差別。眼鏡,當(dāng)它很厚并且有光反射時(shí),在某些情況下會(huì)降低結(jié)果的準(zhǔn)確性。

 

 

2.3EyeReader

當(dāng)比較EyeReaderTobii Nano眼動(dòng)儀(科研級)的注視估計(jì)時(shí),發(fā)現(xiàn)每個(gè)類別的總注視時(shí)間的估計(jì)之間有很強(qiáng)的相關(guān)性(見上面的右圖)。這些結(jié)果表明,EyeReader非常適用于研究現(xiàn)實(shí)的用戶體驗(yàn)項(xiàng)目,可以通過該手段獲得一個(gè)非常清晰的眼動(dòng)結(jié)果。你可以在一個(gè)靈活機(jī)動(dòng)的實(shí)驗(yàn)室環(huán)境中使用EyeReader,也可以在FaceReader Online平臺(tái)中進(jìn)行在線測試(見下面的熱圖例子)。

 

2.4面部表情識別

面部表情識別系統(tǒng),FaceReader是一個(gè)用于面部分析的軟件。它可以檢測面部表情。FaceReader已被訓(xùn)練為將表情歸入以下類別之一:快樂、悲傷、憤怒、驚訝、恐懼、厭惡和中性。這些情緒類別被心理學(xué)家Ekman描述為基本或人類統(tǒng)一的情緒。面部表情的強(qiáng)度各不相同,而且往往是各種情緒的混合。此外,人與人之間也有相當(dāng)多的差異。

FaceReader可以對上述的表情進(jìn)行分類。也可以自己軟件添加自定義表情。除了面部表情之外,FaceReader還提供了一些額外的分類。例如,它可以檢測目光方向以及眼睛和嘴巴是否閉合。

 

FaceReader根據(jù)以下步驟對面部表情進(jìn)行分類。

1.人臉識別。人臉在圖像中的位置是通過基于深度學(xué)習(xí)的人臉識別算法找到的,該算法在圖像中搜索不同比例的人臉區(qū)域。

該算法搜索圖像中不同比例的具有人臉外觀的區(qū)域。

2.面部建模。FaceReader使用了一種基于深度神經(jīng)網(wǎng)絡(luò)的面部建模技術(shù)。它合成了一個(gè)人工面部模型,描述了468個(gè)關(guān)鍵點(diǎn)的位置。

描述臉部468個(gè)關(guān)鍵點(diǎn)的位置。它是一種單程快速方法,可以直接估計(jì)臉部的全部關(guān)鍵點(diǎn)。在初步估計(jì)之后,關(guān)鍵點(diǎn)用主成分分析法進(jìn)行壓縮。這導(dǎo)致了描述臉部狀態(tài)的高度壓縮的矢量代表。

3.面部分類。然后,通過訓(xùn)練有素的深度人工神經(jīng)網(wǎng)絡(luò)對面部表情進(jìn)行分類,以識別面部的模式。

FaceReader直接從圖像像素中對面部表情進(jìn)行分類。超過20,000張經(jīng)過人工標(biāo)注的圖像被用來訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)。

該網(wǎng)絡(luò)被訓(xùn)練用來對Ekman定義的六種基本或普遍的情緒進(jìn)行分類:快樂、悲傷、憤怒、驚訝、恐懼和厭惡。此外,該網(wǎng)絡(luò)還被訓(xùn)練用來對FaceReader中的面部動(dòng)作單元進(jìn)行分類,以識別 "中性 "狀態(tài)和分析 "輕蔑"

3.    FaceReader-Online在線面部表情眼動(dòng)分析平臺(tái)

面部表情分析引擎自07年發(fā)布以來,經(jīng)過16年迭代,目前已經(jīng)到了第九版。16年間各地超過1000個(gè)研究單位使用該軟件,發(fā)表超過3000篇科研論文。諾達(dá)思在此AI引擎的基礎(chǔ)上,結(jié)合微軟Azure云的優(yōu)勢,開發(fā)了在線版的面部表情分析系統(tǒng)FaceReader-Online(以下簡稱FRO)。

FRO通過情緒的捕捉與分析,可以了解受測人員對商業(yè)廣告、電影預(yù)告片、網(wǎng)站等的喜好度、注意力等,從而為客戶提供更客觀的評價(jià)和見解。FRO可以創(chuàng)建一個(gè)或多個(gè)項(xiàng)目,簡言之,您只需給被試發(fā)一個(gè)測試鏈接,等待被試回應(yīng),完成測試后系統(tǒng)會(huì)自動(dòng)分析,結(jié)果清晰可見,非常方便快捷。

2022年,在新技術(shù)的加持下,FRO的分析引擎也增加了眼動(dòng)分析功能,能通過受試者的電腦攝像機(jī),自動(dòng)識別用戶在瀏覽網(wǎng)頁、使用產(chǎn)品原型時(shí)的情緒和注意力變化情況。

 

 

如何使用

只需三步便可完成FRO的相關(guān)設(shè)置:

1.    定義你的項(xiàng)目;

2.    邀請用戶測試,收集數(shù)據(jù);

3.    查看分析結(jié)果。

 

9.png

 

3.1定義項(xiàng)目

在您從諾達(dá)思獲取賬號后,可以通過鏈接訪問FRO平臺(tái),登錄之后只需要選擇新建一個(gè)分析項(xiàng)目即可。接下來您需要上傳您的測試材料,比如視頻廣告,或者相關(guān)App素材,測試原型鏈接等,之后您需要設(shè)置您的測試流程,如何時(shí)給用戶呈現(xiàn)視頻或圖片材料,原型測試鏈接的相關(guān)指引,測試時(shí)長有多少,結(jié)束后是否添加相關(guān)問題等。設(shè)置好試驗(yàn)后,您可以進(jìn)行相關(guān)的預(yù)覽和測試。

 

 

3.2邀請用戶

        準(zhǔn)備好測試相關(guān)流程后,FRO會(huì)自動(dòng)生成一個(gè)在線測試鏈接,您可以將該鏈接直接發(fā)送給被測試的用戶人群,也可以將該鏈接整合到你已有的問卷系統(tǒng)中。之后便可以輕松的在系統(tǒng)后臺(tái)中看到測試的進(jìn)度,以及收集到的數(shù)據(jù)質(zhì)量。

3.3查看分析結(jié)果

       FRO會(huì)對收集到的數(shù)據(jù)進(jìn)行自動(dòng)的分析,分析結(jié)束后我們便可以在后臺(tái)看到收集到的相關(guān)數(shù)據(jù)。分析數(shù)據(jù)前我們可以首先選擇對比的方式,我們可以對比不同用戶群體在使用同一個(gè)用戶界面時(shí)的結(jié)果和感受,也可以對比多個(gè)不同版本的用戶界面設(shè)計(jì)。除此以外,也能夠?qū)?shù)據(jù)做清洗,去除錄像效果較差的數(shù)據(jù)。

 

11.png

 

添加結(jié)果之后,FRO會(huì)以圖標(biāo)和表格的形式呈現(xiàn)數(shù)據(jù),直觀對比不同版本的材料間,用戶在完成測試腳本期間表情的變化情況,如下圖示例中,可以看到新版網(wǎng)站用戶在尋找相關(guān)產(chǎn)品信息時(shí),表情更加積極;用戶在瀏覽舊網(wǎng)站時(shí),會(huì)有更多消極表情,而這些消極表情,主要是由于用戶瀏覽網(wǎng)站過程中的困惑,困難產(chǎn)生的,如用戶找不到相關(guān)信息時(shí)會(huì)不自覺的皺眉頭等。

眼動(dòng)分析中,除了傳統(tǒng)的熱區(qū)圖以外,我們還能對感興趣的頁面區(qū)域做劃分,了解用戶進(jìn)入當(dāng)前頁面瀏覽時(shí)第一次看到我們目標(biāo)區(qū)域花了多長時(shí)間(首視時(shí)間),看相關(guān)區(qū)域一共花了多長時(shí)間,以此可以定量對比不同版本的設(shè)計(jì),對用戶產(chǎn)生的具體影響情況。

 

 

       限于篇幅,我們僅就面部表情和眼動(dòng)分析中的部分結(jié)果呈現(xiàn)做了展示,更多豐富的內(nèi)容可以進(jìn)入查看。也可聯(lián)系我們進(jìn)行免費(fèi)試用。

4.    應(yīng)用前景

 

      在豐富了FRO分析平臺(tái)從眼動(dòng)到表情識別的分析能力后,FRO的應(yīng)用方向迎來了更多的想象空間,除了傳統(tǒng)的一些用戶體驗(yàn)相關(guān)的視頻或者圖片素材的測試外,還能對一些概念原型做相關(guān)評估,包括但不限于如下內(nèi)容:網(wǎng)頁網(wǎng)站的可用性評估、廣告創(chuàng)意評估、圖片材料評估、產(chǎn)品貨架測試、產(chǎn)品包裝測試、虛擬門店測試、行為心理研究、預(yù)告片評估、精神疾病評估等。

     FRO能使得以往需要耗費(fèi)數(shù)萬元一次的線下眼動(dòng)、表情測試,以標(biāo)準(zhǔn)化的線上測試的形式呈現(xiàn),用以往五分之一的價(jià)格,便能完成一次表情+眼動(dòng)的定量實(shí)驗(yàn)研究,特別是在疾病流行的當(dāng)下,能幫助客戶更加高效的開展遠(yuǎn)程的用戶體驗(yàn)測試項(xiàng)目。


 

關(guān)注諾達(dá)思公眾號,獲取更多產(chǎn)品信息及學(xué)術(shù)文章!

諾達(dá)思公眾號.png

 

分享到:

返回列表 | 返回頂部
上一篇 : 水迷宮實(shí)驗(yàn)的原理、材料及實(shí)驗(yàn)方法分析    下一篇 :  放養(yǎng)密度對南美白對蝦攝食行為的影響
網(wǎng)站首頁 公司簡介 產(chǎn)品中心 招聘中心 技術(shù)支持 企業(yè)動(dòng)態(tài) 聯(lián)系我們 管理登陸
地址:北京市朝陽區(qū)廣順北大街33號院6號樓507
GoogleSitemap 京ICP備13052109號-3
諾達(dá)思
  • 電話/傳真

    86-10-84852246

在線客服
欧美黑人又粗又大久久久| 337p日本欧美人艺木之色噜噜| 国产美女自卫慰视频福利| a级毛片无码免费真人| 窝窝人体色www| 欧洲精品99毛片免费高清观看| 亚洲老妈激情一区二区三区| 墨江| 热久久久| 国产精品一二三区| 久99综合婷婷| 日日爽夜夜爽| 国产成人精品亚洲av无人区一区| 色熟妇| 色综合久久88| 69亚洲乱| 一本久| 涩涩在线| 欧美片| 朋友出差人妻半推半就滑进| 日韩精品一区二区三区四区 | 一本色道久久综合亚州精品蜜桃| ]人妻无码AⅤ不卡中文字幕| 尤物在线精品视频| 久久精品国产成人AV| 国产乱子伦精品无码码专区| 日韩精品久久久免费观看| 免费久久99精品国产自在现| 久久久久久综合网天天| 无码aⅴ在线观看| 精品一区二区三区免费播放| 日韩一本之道一区中文字幕| 777精品久无码人妻蜜桃| 无码熟妇人妻av影音先锋| 国产一区二区三区在线观看免费| 国产精品爽爽V在线观看无码| 久久综合狠狠色综合伊人 | 成年女性特黄午夜视频免费看| 亚洲精品自产拍在线观看动漫| 两个人看的www高清视频中文| 亚洲第一成年免费网站|