一家名為Affectiva的創業公司由麻省理工學院(MIT)的媒體實驗室發展而來,前段時間它為其情緒跟蹤技術發布了一套軟件開發工具包(SDK)。這家公司聲稱,如果你借助移動設備的攝像頭來分析某人的面部表情,可以評估廣告和品牌對該人的影響。
據Affectiva聲稱,就Affdex而言,處理這一塊在設備端進行,而不是在遠程服務器端進行,一些同類技術也是如此。這提高了開發出這種系統的可能性:能夠實時感知情緒,并將感知結果饋送到另一個應用程序,因而借助該應用程序改變發生的情況。比如說,不斷的情緒反饋有望改變游戲或互動故事的軌跡,這取決于用戶對各個場景有怎樣的感受。
Emotient的兩位聯合創始人賈維爾?莫維蘭(Javier Movellan)和瑪麗安?巴特利特(Marian Bartlett)開發出了一款谷歌眼鏡應用程序,可以讀取人類情緒,讓佩戴者知道別人的感受。
另一家創業公司Emotient近日剛獲得了另外600萬美元的資金,旨在進一步研發其面部識別情緒感知技術,尤其是用于第三方軟件開發的API。這家公司近日宣布開發出了一款面向谷歌眼鏡的“glassware”應用程序,旨在可以進行現場“情緒分析”。如果你佩戴谷歌眼鏡設備,它會解讀你所關注的人的情緒,然后大體上告訴你別人有怎樣的感受。該應用程序的第一批目標客戶是餐館員工、銷售人員以及零售行業想知道顧客對產品或服務滿意程度的其他人。
英特爾是Emotient的投資者,據稱計劃將Emotient的庫引入到其RealSense SDK的下一個版本中。RealSense好比是微軟的Kinect――旨在與電腦結合使用,內置到筆記本電腦中,以便能夠對周圍環境和用戶進行實時3D掃描,用于游戲以及內容創作。
情緒分析只是應用之一
一位名叫奧登?奧伊加德的挪威計算機科學家開發出一款名為CLMtrackr的面部讀取工具。為演示CLMtrackr的技術而開發的應用程序現在可以從網上免費獲取,使用情緒跟蹤示例,實時跟蹤自己的情緒。
CLMtrackr的方法是讀取面部表情,然后基于成千上萬個之前的模式,解讀這些表情。實際上,這項技術根據人面部上的70個特定點繪制了綠線,然后將那些線的相對方位與以前的例子進行比對。
CLMtrackr的主要賣點在于,實時識別面部上的點,而且精準度很高。這項技術已作為一個JavaScript庫來發布,用于使面部模型與圖像或視頻中的面部相一致。
不只是面部讀取
與此同時,意大利熱那亞大學的研究人員們已設計出了一個系統,可使用微軟Kinect攝像頭了解你的感受。
該系統的工作方式是通過讀取和解讀身體語言。它用軟件制作一張人物線條畫,然后解讀人物線條如何移動,移動的速度有多快或多慢。軟件在讀取身體語言時尋找人們的同樣動作:比如說,頭耷拉著,肩膀低垂,可能表明很傷心。
拋開能夠讀取情緒,然后利用情緒數據實現某個用途的工具不說,大多數這些項目的共同點就是,它們旨在通常可以擴展或內置到移動應用程序和移動設備中。這幾大項目沒有一個采用專有技術,而是將各自的工具作為開放系統來提供,供其他公司使用。
這其實讓所有這些不同的情緒識別方法非常激動人心:系統可以整合到一大批移動應用程序和設備中,并結合起來以提高準確性或靈活性。
最初的目標似乎是在零售銷售領域――弄清楚顧客有何感受。但是由于其他的應用程序開發人員在發揮創造力,我們有望看到情緒感知功能內置到用戶界面中,比如說讓應用程序在與用戶互動時,變得更友好或“更靈巧”。
誰知道情緒識別功能接下來會出現在什么應用領域呢?