<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強(qiáng)烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
      業(yè)界 正文
      發(fā)私信給程弢
      發(fā)送

      0

      讓機(jī)器學(xué)會“讀心術(shù)”,情感計算如何解決實際場景需求? | 雷鋒網(wǎng)公開課

      本文作者: 程弢 2017-05-04 18:44 專題:雷峰網(wǎng)公開課
      導(dǎo)語:完成情感判斷需要哪些模塊?以及具體實現(xiàn)原理是怎樣的?

      你做一個表情,或者說一句話,機(jī)器就可以準(zhǔn)確地識別你的情緒。

      沒錯,當(dāng)你在渴望get“讀心術(shù)”技能的時候,機(jī)器已經(jīng)能完美的實現(xiàn)了。目前,國內(nèi)的翼開科技、以色列公司Beyond Verbal以及美國的Affectiva和Emotient都在做這情感計算解決方案。其應(yīng)用場景也非常廣泛:飛行員情緒監(jiān)控、呼叫中心情緒考核、學(xué)生情緒監(jiān)測甚至是智能硬件都可以使用這類算法,而且精度可以達(dá)到90%以上。

      簡單來說,機(jī)器是根據(jù)人的心率、呼吸、語音甚至是面部表情等特征,再通過特定的模型算法就能解讀出人的情緒狀態(tài),從技術(shù)角度看,數(shù)據(jù)挖掘、機(jī)器學(xué)習(xí)等都是情感計算的基礎(chǔ)。

      那么完成情感判斷需要哪些模塊?以及具體實現(xiàn)原理是怎樣的呢?本期硬創(chuàng)公開課,雷鋒網(wǎng)邀請到了翼開科技創(chuàng)始人魏清晨為大家分享情感計算的技術(shù)問題以及應(yīng)用場景。

      嘉賓介紹

      讓機(jī)器學(xué)會“讀心術(shù)”,情感計算如何解決實際場景需求? | 雷鋒網(wǎng)公開課

      魏清晨,翼開科技EmoKit創(chuàng)始人,目前全面負(fù)責(zé)EmoKit公司的戰(zhàn)略規(guī)劃、運(yùn)營管理、團(tuán)隊建設(shè),團(tuán)隊里兩名核心科學(xué)家均為海歸博士后。

      EmoKit,即海妖情感計算引擎,包括情緒的識別、優(yōu)化、表達(dá),是人工智能的核心基礎(chǔ)設(shè)施之一。自2015年創(chuàng)立半年獲得600萬投資,如今已經(jīng)超2000萬用戶,今年獲得近2000萬元訂單。Emokit先后獲得美國麻省理工學(xué)院舉辦的“MIT-CHIEF全球創(chuàng)業(yè)大賽”中國區(qū)第一名,芬蘭“Slush World 2014全球創(chuàng)業(yè)大賽”名列第一,工信部和全國科協(xié)2015全國移動互聯(lián)網(wǎng)創(chuàng)業(yè)大賽“特等獎”,清華大學(xué)H+Lab“幸福科技全球挑戰(zhàn)賽”冠軍。

      以下內(nèi)容整理自本期公開課,雷鋒網(wǎng)做了不改變愿意的編輯:

      情感計算的模塊和價值

      就我們現(xiàn)在在做的事情來看,我們把情感計算分成3個模塊:第一部分是情緒識別,通過語音、心率、表情和寫字過程中壓感和速率的變化來判斷用戶的情緒。

      情緒識別

      讓機(jī)器學(xué)會“讀心術(shù)”,情感計算如何解決實際場景需求? | 雷鋒網(wǎng)公開課

      情緒的類型一共有24種,積極和消極各12種。在情感計算的發(fā)展過程中,算法也經(jīng)歷了六次升級。第一代我們通過量表測評,第二代加入了心率和呼吸,第三代針對個體增加了縱向的學(xué)習(xí)和訓(xùn)練,第四代我們對情緒做了一個細(xì)化(從原來的5中情緒增加到了24種),第五代加入了表情和筆記的情緒識別,第六代主要做兩塊工作:一個是判斷了用戶的情緒之后,基于單一的事件背景進(jìn)一步識別用戶的意圖;第二個工作就是把語音、表情和視覺的行為、文本做一個多模態(tài)的擬合。

      情緒優(yōu)化模塊

      情緒識別只是第一步,未來需要解決的問題是調(diào)整用戶的情緒。從上圖可以看出,通過語音、心率表情和筆記這些信息判斷用戶的情緒之后,還可以通過推薦內(nèi)容來緩解用戶的情緒。

      讓機(jī)器學(xué)會“讀心術(shù)”,情感計算如何解決實際場景需求? | 雷鋒網(wǎng)公開課

      例如,翼開科技2011年上線的一款應(yīng)用就會給用戶推薦詩歌、書法、音樂等等,后來在音樂內(nèi)容上做得更加深入,我們通過分析音樂的音高、節(jié)奏、旋律和音強(qiáng),3分鐘的歌曲會采集6000個數(shù)據(jù)點(diǎn)分,根據(jù)這些信息來給歌曲打情緒標(biāo)簽。現(xiàn)在已經(jīng)標(biāo)注過得音樂數(shù)量超過了160萬首,另外,像圖片、視頻都是可以通過用戶的情緒來做內(nèi)容匹配,最終達(dá)到緩解情緒的目的。

      情緒表達(dá)

      讓機(jī)器學(xué)會“讀心術(shù)”,情感計算如何解決實際場景需求? | 雷鋒網(wǎng)公開課

      情緒表達(dá)是利用情感合成技術(shù),讓一段語音、表情或者肢體動作模擬人的情感,讓機(jī)器帶有情感的表達(dá)出來,這樣就可以提升人和機(jī)器的交互體驗。

      舉個例子,如果送餐機(jī)器人只會識別菜和客人,這是基礎(chǔ)服務(wù);但要增加機(jī)器人的附加價值,需要送餐機(jī)器人讀懂客人的情緒,客人情緒低落的時候,送餐機(jī)器人會以一種比較舒緩的情緒對話。

      情感計算技術(shù)實現(xiàn)的路線

      目前翼開科技和中科院心理所、清華大學(xué)心理系和美國卡內(nèi)基梅隆大學(xué)語言技術(shù)研究所。

      這實際上是兩個流派:前面的兩個機(jī)構(gòu)代表的是基于理論研究的專家模型,卡內(nèi)基梅隆大學(xué)是基于神經(jīng)網(wǎng)絡(luò)、深度學(xué)習(xí)的模型。

      目前翼開科技在做的有一部分是基于深度學(xué)習(xí)的,也有一部分是基于專家模型。我們認(rèn)為這兩類的瓶頸都逐漸顯現(xiàn)出來了,需要相互融合。

      為什么會用深度學(xué)習(xí)來做表情的識別?

      現(xiàn)在做深度學(xué)習(xí)的瓶頸在于大量標(biāo)注過的數(shù)據(jù),不過表情標(biāo)注會相對比較容易,一張人臉只判斷喜怒哀樂,一般情況下1秒就可以識別出一個人的表情,如果有幾十萬張表情圖片,用眾包的方式所需的時間和費(fèi)用都不會很大。

      不過有一些數(shù)據(jù)不太方便做標(biāo)注,例如語音。

      三分鐘的語音,我們必須聽完三分鐘才能做情緒的標(biāo)注,標(biāo)注的工作量在無形中增加了上百倍,而且相對表情而言,語音的情緒表達(dá)更加隱性,所以也很難用深度學(xué)習(xí)的方式來實現(xiàn)語音的情緒識別。

      還有一種是普通人很難進(jìn)行標(biāo)注的,如心率。即使你是一個專業(yè)的醫(yī)生,看完一段心率圖也無法確定測試對象心率變化的原因(開心、焦慮、憤怒)。

      所以,現(xiàn)在表情是基于深度學(xué)習(xí)的,語音和心率基于專家模型。

      不過剛才也講到,這兩類在發(fā)展到一定程度時候,會存在瓶頸。例表情面臨的瓶頸有兩個:1.普通人標(biāo)注人臉表情的顆粒度一般是6-8種情緒,很難識別更細(xì)的(24種甚至是一百多種);2.即便完成了情緒類型的標(biāo)準(zhǔn),但你無法確認(rèn)情緒的真?zhèn)巍?/p>

      在專家模型中,則有比較成熟的模型來判斷情緒的真?zhèn)危虼耍覀兛梢栽谏疃葘W(xué)習(xí)的基礎(chǔ)上,再疊加專家模型來突破這樣的瓶頸。

      心率和語音基于專家模型也存在瓶頸,現(xiàn)在的解決辦法是建立一個個體用戶強(qiáng)化訓(xùn)練的模型(一個用戶測得越多,模型會越貼合被測用戶的特征);另外,我們還可以建立一個半監(jiān)督學(xué)習(xí)算法來得到實時的反饋。

      因此,表面上有兩條技術(shù)路線,但實際上這二者是相互融合的。

      情感計算的不同理解

      不同的行業(yè)對于情感計算的理解是不一樣的。羅莎琳德·皮卡德是麻省理工學(xué)院MediaLab的老師,她也是情感計算學(xué)科的奠基人。

      在她《情感計算》這本書中的序言中有這么一句話:如果要讓計算機(jī)實現(xiàn)真正的智能并適應(yīng)我們,跟我們產(chǎn)生自然而然的人機(jī)交互,那么,它就需要具備情緒識別和表達(dá)能力,就需要具備情感。

      谷歌云計算首席科學(xué)家李飛飛對情感計算是這么理解的:現(xiàn)在我們的AI都是用邏輯的方法來判斷情感。邏輯代表IQ,而情感代表EQ。未來,從情緒到情感,是人工智能未來前進(jìn)的方向。

      我們認(rèn)為可以從三個角度來理解情感計算:

      第一,情感計算可以幫助AI來識別用戶的情緒;

      第二,情感計算可以幫助AI模擬人類的情緒,以改善人機(jī)情感交互;

      第三,情感計算可以讓AI產(chǎn)生自我約束能力(同理心)。

      應(yīng)用場景

      目前翼開科技和環(huán)信展開了合作,環(huán)信有IM溝通工具,這里面包含了語音、表情和文本等信息,我們對其開放了綁定的SDK,可以通過語音等信息來判斷用戶的情緒。

      另外,我們現(xiàn)在還和科大訊飛有合作,合作的方式主要是相互交叉授權(quán),通過綁定版的SDK,科大訊飛來識別語音,翼開科技來判斷情緒;現(xiàn)在還在做視覺的應(yīng)用,科大訊飛識別人的身份,翼開科技來識別其情緒。

      另外,以下這些都是情感計算可能落地的應(yīng)用場景:

      1.基于AI多模態(tài)識別和生物反饋技術(shù)的精神壓力智能篩查裝備

      2.基于AI多模態(tài)識別和NLP技術(shù)的公安審訊實時分析預(yù)警裝備

      3.基于AI多模態(tài)識別和車載控制技術(shù)的司機(jī)情緒和疲勞度監(jiān)測敢于系統(tǒng)

      4.基于AI多模態(tài)識別和智能控制技術(shù)的情感聯(lián)動的無操控智能家居系統(tǒng)

      5.基于AI多模態(tài)識別和動機(jī)分析技術(shù)的金融信貸面簽風(fēng)險評估機(jī)器人

      6.基于語音聲紋和NLP技術(shù)的呼叫中心坐席情緒監(jiān)控和滿意度分析方案

      7.基于情感大數(shù)據(jù)時序遞歸分析技術(shù)的幼兒性格發(fā)育傾向性預(yù)測軟件

      8.基于情感大數(shù)據(jù)時序遞歸分析技術(shù)的承認(rèn)免疫系統(tǒng)損傷預(yù)警軟件

      當(dāng)然,對于創(chuàng)業(yè)公司而言,要做出上述所有場景來推向市場,雷鋒網(wǎng)了解到,翼開科技已經(jīng)在教育、金融等領(lǐng)域做出了商業(yè)化的嘗試。

      精彩問答

      Q:語音、圖像這些不同的模塊怎么在系統(tǒng)里面協(xié)調(diào)工作?

      A:其實就是一個多模態(tài)的算法,有兩種實現(xiàn)的方法:本身數(shù)據(jù)就是多模態(tài)的數(shù)據(jù),然后做標(biāo)注,做完玩標(biāo)注就可以通過深度學(xué)習(xí)的方式來做訓(xùn)練;第二種,通過同一個sensor采集數(shù)據(jù)后再做多模態(tài),例如通過麥克風(fēng)可以采集到用戶的語音、聲紋特征,進(jìn)一步分析文本,來做多模態(tài)。

      Q:情感數(shù)據(jù)對準(zhǔn)確率還是有很大的影響,這些數(shù)據(jù)是怎么搜集的?

      A:在我們和卡內(nèi)基梅隆大學(xué)情感計算專家交流的過程中,我們得到一個觀點(diǎn),通過單種信息來判斷情緒,準(zhǔn)確率是有局限性的;另外,越早做多模態(tài)越好,越多的模態(tài)擬合越好。

      我們把反應(yīng)情緒的信號分為兩類,一類是淺層信號,如語音、表情;還有一類是深層信號,完全受交感神經(jīng)和副交感神經(jīng)的影響,主觀意識很難控制。

      淺層信號更容易采集,但權(quán)重不高;深層信號權(quán)重高,但采集難度比較大。兩種信號做綜合的多模態(tài)分析可以提升情感判斷的準(zhǔn)確度。

      Q:目前的準(zhǔn)確率有多高?多模態(tài)的模型有相關(guān)的paper嗎?

      A:語音和心率是基于專家模型的,這個精度會低一點(diǎn),在85%左右,表情在90%左右(但是表情只有7中情緒)。

      Q:情感識別目前有判斷準(zhǔn)確率的行業(yè)標(biāo)準(zhǔn)嗎?沒有標(biāo)準(zhǔn)的話,從哪些維度來提升識別率?

      A:現(xiàn)在判斷情緒標(biāo)準(zhǔn)的類型比較多,常見的如果用深度學(xué)習(xí)方法實現(xiàn)的模型,再重新另一套標(biāo)注的數(shù)據(jù)來跑一下這個模型,來判斷它的精度;另外,可以根據(jù)用戶反饋來判斷,把系統(tǒng)測試的結(jié)果反饋給用戶,讓用戶來給出最終驗證。

      如何優(yōu)化?可以通過半監(jiān)督學(xué)習(xí)的方式,來進(jìn)行自我訓(xùn)練自我校正。

      Q:有采用腦電波的模態(tài)數(shù)據(jù)嗎?

      A:國外做這一塊的研究有很多,我們現(xiàn)在認(rèn)為腦電sensor還不是消費(fèi)終端的標(biāo)配,采集腦電要專門的sensor,目前只用在特殊的行業(yè),還沒有做通用算法的開放。

      公開課視頻


      PS:翼開科技正在招聘:機(jī)器學(xué)習(xí),機(jī)器視覺,情感計算,多模態(tài),NLP等相關(guān)職位,如有意向歡迎投簡歷到:way@emokit.com

      讓機(jī)器學(xué)會“讀心術(shù)”,情感計算如何解決實際場景需求? | 雷鋒網(wǎng)公開課

      雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

      分享:
      相關(guān)文章

      略懂技術(shù)的小編

      關(guān)注一切有未來感的產(chǎn)品及技術(shù)!
      當(dāng)月熱門文章
      最新文章
      請?zhí)顚懮暾埲速Y料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
      立即設(shè)置 以后再說
      主站蜘蛛池模板: 国产精品成人va在线播放| 国产精品成人va在线观看| 亚洲video| 国产亚洲精品久久久闺蜜 | 你懂的网址国产日韩网址| 精品流白浆| 欧美一线天| 国产精品久久欧美久久一区| 亚洲精品天堂成人片AV在线播放| 噜噜噜综合亚洲| 揉捏奶头高潮呻吟视频| 淮阳县| 经典国产乱子伦精品视频| 国产精品制度丝袜电影| 亚洲AV网址| 国产精品美女一区二区三| 亚洲福利视频一区二区| 精品国产人成亚洲区| 亚洲国产日韩视频观看| 天堂中文最新版在线官网在线| 伊人久久大香线蕉av一区 | 亚洲精品久久久久久一区二区 | 亚洲人成在线精品| 久久亚洲精品11p| 嘟嘟嘟www在线观看免费高清| 国产精品igao视频| 欧美人体做爰大胆视频| 无码人妻一区二区三区一| 国内精品久久久久影院一蜜桃| 男女性高爱潮免费网站| 狠狠干天天撸| 69午夜福利| 无码人妻精品一区二区三区蜜臀百度| 蕾丝av无码专区在线观看| AV最新高清无码专区| 特黄特色大片免费播放器999| 黄色无码视频| 亚洲AV无码专区亚洲AV| 国产内射合集颜射| 69老司机精品视频免费观看| 久久久久国产精品熟女影院|