駱昌芹
這一研究起源于20世紀70年代,當時日本正處于經濟膨脹期,化工廠中開始出現事故。東京大學科學機械工程教授Fumio Hara說,“工廠主需要全面觀察到工廠將發生的情況,如果出現故障就能很快地體現出來,比如一張悲傷的臉。”但工程師隨后又發現,從工廠場地到生產過程中溫度和壓力危險的變化,都用機器人的面部表情來表示是很困難的,而且不同操作員對一個表情往往有著不同的解釋。于是Hara不得不放棄了這一嘗試。
到了80年代,Hara又有了新的構想,即將這種方法用于個體的機器人和人之間。在政府的支持下,Hara小組開始著手生成機器人的表情。
舊金山加利福尼亞大學心理學教授Paul Ekman將人的面部表情分為44個動作單元,對應44個單獨的活動,如眉毛的抬起或落下、嘴唇的撅起。不同的組合方式產生不同的表情,如厭惡需要低下眉毛、皺起鼻子、抬起下巴。利用這一成果,Hara小組做了一個鋁制機器人頭部,它帶有18個氣壓驅動的微驅動器,實質為小齒輪型活動裝置,它們能模仿26個臉部運動,下一步用硅橡膠做一個臉部。最后在機器人的左眼中安放一個小型攝像機,可在5m左右的距離內掃描人臉,一個計算機與攝像機相連,通過對臉部不同區域搜索亮度的變化來決定人的表情。
當人臉從中性的表情變化到6種感情之一,計算機觀察黑暗的區域——眼睛、嘴巴、鼻子和眉毛的變化,使用一個基于自主學習程序的神經網絡,計算機最終能在60 ms內識別出與給定情感表情相關的一個人臉亮度結構的變化,從而生成恐懼、快樂、驚訝、悲傷、憤怒和厭惡6種表情。……