鄧曉健,李 彬,張俊松
(廈門大學 智能科學與技術系 藝術認知與計算實驗室,福建 廈門 361005)
?
基于統計的漢字字形視覺重心計算
鄧曉健,李 彬,張俊松
(廈門大學 智能科學與技術系 藝術認知與計算實驗室,福建 廈門 361005)
該文提出了一種漢字字形視覺重心的計算方法。首先收集常用漢字圖像樣本,通過圖像預處理,提取出樣本漢字的連通區域視覺平衡中心;然后招集被試對樣本漢字進行視覺重心標注;再利用統計建模的方法,構建出連通區域視覺平衡中心和漢字整體視覺重心之間的關系模型。與相關方法比較,文中方法考慮了漢字視覺重心依賴于人的主觀體驗這一因素。該方法能廣泛應用于漢字特征提取、漢字結構設計與優化等應用領域。
書法漢字;連通區域;視覺重心;回歸分析
在漢字的結體中,“重心平穩”是最基本的要求。所謂“重心”是從物理學上借用過來的術語,指重力在物體上的作用點。重心是漢字字形結構的關鍵,它處于字的心臟部位——中宮,構成了視覺重心,字的構成筆畫和部首只有以它為中心,其結構才具有穩定性和均衡感,而又不失板滯[1-3]。在字體設計時,視覺重心是字體設計師關注的一個重要方面。因為只有漢字的視覺重心保持一致,讀者閱讀時才能確保閱讀的流暢性和舒適性[1-3]。因此漢字字形視覺重心的計算方法,在印刷體漢字自動生成,字形美化、字體排版等方面都具有重要的應用價值。
以往大量的書法著作都對漢字重心進行了描述。如張強[4]基于力學上的平衡性原理,從視覺力度適應角度對重心做出了說明,指出漢字視覺重心是保證視覺平衡性適應的關鍵所在。李天馬[5]對不同結構的漢字的重心,如獨體、左右型、上下型等漢字進行了概括性的說明。黃向東[6]指出人們在尋找一個圖形中的重心點時,其位置往往會高于幾何中心。啟功[7]提出真書結字黃金律,其通過延長楷書比畫獲取交叉點,歸納總結出楷書結體的四個關鍵位置,確定了重心所在區域。
同時,在一些漢字字形處理的工作中,已經有部分工作涉及漢字視覺重心計算。Kai等[8-10]通過計算漢字筆畫區域黑色像素點坐標的平均值來表示漢字重心。Tao等[11]通過中心投影射線的焦點來刻畫漢字重心。Arai等[12]首先計算出漢字圖像上每一列行黑色像素點個數,然后統計出具有最多黑色像素點的行列,把其交叉點作為漢字重心。范琳偉[13]總結了國外現有光帶中心提取算法的特點,并結合視覺特征與力矩平衡理論,提出了一種新的基于漢字圖像的視覺重心提取算法,通過分析色彩、方向、邊緣等特征,將漢字圖像分為多個子塊并利用力矩平衡理論計算漢字圖像的視覺重心點。該方法能獲得較好的視覺效果,但在一定程度上忽略了漢字結體以及筆畫骨架線對人視覺關注位置的影響。
以上這些漢字重心計算方法,大多是基于漢字圖像像素點坐標位置進行全局運算,并沒有深入考慮漢字字形結構的影響,同時忽略了漢字視覺重心依賴于人的主觀體驗這一重要因素??傮w來說,漢字視覺重心是字形設計的一個重要因素,但目前還有待深入研究。
計算漢字視覺重心存在以下挑戰: 1)漢字視覺重心是閱讀者的主觀體驗,難以建立客觀準確的度量與計算方法;2)漢字重心與字形的許多因素有關,如基本筆畫、間架結構、字體形態等,目前基于模式識別和圖像處理的方法,還不能自動高效地提取出這些漢字特征。基于這些挑戰,本文使用筆畫連通區域表示影響漢字視覺重心的特征,筆畫連通區域幾何中心部分包含了基本筆畫位置、大小、筆畫間架結構等特征信息。另外,雖然個體主觀體驗沒有統一標準,但可以通過人工標注的漢字視覺重心樣本,采用統計分析的方法,歸納出符合大眾視角的漢字視覺重心計算的一般性規律。
本文基于統計分析,提出了一種漢字視覺重心的計算方法,算法總體流程如圖1所示。

圖1 總體流程圖
基于力矩平衡特性,本文首先結合漢字筆畫的骨架線和距離場特征計算作用力矩,預測漢字筆畫各連通區域的視覺平衡中心;然后通過統計回歸的方法探索多連通區域平衡中心與視覺重心之間的關系;最后針對不同的字體結構建立數據模型集合,從而實現了模擬視覺重心定位。實驗結果與漢字視覺重心的主觀認知基本一致。同時本文方法可以進一步推廣,針對不同的字體類別實現視覺重心的預測。
日常生活中,手寫體漢字或者帶有特定風格的計算機生成漢字常常為閱讀帶來挑戰,漢字視覺重心的合理定位能為文本的布局帶來很大便利。在閱讀單個漢字時,視覺關注的位置往往聚集在圖像的中心位置,同時容易受漢字本身局部特征影響,如筆畫的輪廓、面積、筆畫間相對位置等。蕭皖龍[9]提出漢字的筆畫重心與偏旁部首重心共同構成整個漢字的平面幾何重心,該幾何重心作為人腦的規范映射,與漢字的視覺重心密切相關。
從視覺觀察角度,根據漢字筆畫的銜接與分離關系,單個漢字圖像可以分解為多個連通區域的組合,每個連通區域的細節反映了漢字筆畫的風格以及漢字的局部視覺特征。張積家等[15-16]提出,漢字認知中存在著自下而上、由部分到整體的加工,漢字筆畫和部件是漢字識別的基本單元。因此,漢字的視覺重心可以理解為由各個連通區域特征共同確定。多連通區域組合情況下的視覺重心往往與人對視覺對象的整體知覺經驗聯系緊密,單純從幾何計算的角度很難準確預測,因此,本文嘗試使用統計回歸的方法模擬人眼對于不同區域組合的視覺重心定位機制,由局部到整體可將工作展開為兩部分: 1)考慮單個筆畫連通區域的視覺平衡中心估算;2)多個筆畫所構成的連通區域組合的視覺重心定位,預測多個局部連通區域視覺平衡中心與漢字整體視覺重心的關系。
針對不同漢字集合,通過收集被試者的視覺重心感知數據,構建同類集合情況下的視覺預測模型。整個模型的設計過程可分為三個部分: 1)視覺重心樣本數據收集與分析,即樣本漢字視覺重心標注以及漢字圖像各連通區域的視覺平衡中心計算;2)回歸模型集合參數訓練,采用多元線性回歸分析各連通區域視覺平衡中心的關系模型集合;3)測試用例分類與視覺重心預測,即根據待測漢字的連通區域數量,采用對應的關系模型預測漢字視覺重心。接下來,本文將以一組簡化的樣本漢字集合作為討論對象,說明整個模型的搭建與使用過程。
2.1 樣本漢字視覺重心標注
給定一組漢字圖片集合S,為了獲取視覺重心樣本,需要邀請被試者參與樣本漢字視覺重心的標注。對于S中任一張圖片,每一個參與視覺重心標注的被試者都能指出感知中最重要的位置。其中對于第i張圖片(寬為W,高為H),以圖片左上角為原點,第n個被試標注重心的相對位置可計算得式(1)。

(1)
2.2 單連通區域的視覺平衡
針對單連通區域的視覺平衡中心預測問題,考慮單個筆畫的視覺重心的平衡特性,以漢字筆畫的骨架線為基礎,引入輪廓距離場作為重力約束,利用力矩平衡理論計算視覺平衡中心。為了簡化討論,本文假設輸入為一組漢字圖片集合S,并且集合S中的圖片都預先裁定為恰好包含漢字,即漢字的外包矩形大小為所在圖片大小。
2.2.1 圖像特征提取



(2)
筆畫的粗細對比對于視覺影響很大,骨架線上任一點Pi的延伸范圍影響了筆畫的視覺效果,因此,考慮骨架線的延伸情況,需將骨架與輪廓之間的距離作為另一個特征。對于連通區域a∈A,計算該區域內的距離場為式(3)。

(3)


圖2 單連通區域樣本漢字視覺平衡中心計算。(a)原圖,(b)骨架線,(c)距離場,(d)單連通視覺平衡中心
2.2.2 基于力矩平衡的視覺平衡預測

(4)

(5)
以單連通區域樣本漢字“王(華文行楷體)”字為例,其視覺平衡中心如圖2(d)。
2.3 采集模型訓練輸入數據
對于任一張漢字圖片A∈S,通過圖像處理的方法可獲得連通區域的輪廓線并進行分割,然后使用2.2中單連通區域的視覺平衡預估方法分別計算各連通區域的視覺平衡中心。結合每一個被試者感知的視覺重心標注位置,可得輸入數據的集合,以連通區域樣本漢字“治(宋體)”如圖3所示,各連通區域處理后所得數據如表1所示。

圖3 治“宋體”

方向/位置視覺平衡中心相對位置預估(圖3中序號1-5)視覺重心標注位置(圖中點O)橫向X0.6574070.1018520.2006170.2098770.6759260.487912縱向Y0.7544910.3952100.6886230.1317370.3053890.549356
2.3.1 數據去噪
考慮到個體差異,在標注數據中會存在一些離群點,這些點不具有統計意義為數據中的噪聲點,其余為有效標注點。本文根據啟功先生所提出的結字黃金律[7]來確定有效標注點的取值范圍。

圖4 啟功結體黃金律


(6)
2.4 基于多元線性回歸的數據建模
在獲得有效數據集合之后,需要解決的問題是如何從大量數據集合中尋找規律,用以解析各連通區域視覺平衡中心和漢字整體視覺重心之間的關系。解決大數據統計擬合的方法很多,為了簡化實驗數據分析過程,本文采用多元線性回歸的方法建立分析模型。
2.4.1 多元線性回歸
多元線性回歸是學習多元輸入到輸出映射關系的重要方法,其模型的通用數學表達式可定義為:
(7)
其中,w0,w1,…,wn稱為回歸系數,是n+1個待估參數,ε是隨機變量(剩余參數)。
多元線性回歸分析的主要問題是根據x1,x2,…,xn,r的N組觀測數據(xk1,xk2,…,xki,rk),k=1,2,…,N,求解各回歸系數wi的估計值 ,使得樣本平方誤差之和最小。
E(x|w0,w1,…wn)=
(8)
(9)
定義式(10)中的向量與矩陣:
(10)
于是,方程組等價為式(11)。
(11)
顯然XTX是對稱矩陣,故有式(12)。
(12)
2.4.2 多元線性回歸構建關系模型

(13)
根據2.4.1所述計算過程,求解參數w0,w2,…,wn,即可得到連通區域幾何中心與漢字統計視覺重心在x方向和y方向上的n-連通關系模型。以四連通區域為例,通過本文方法,利用字體為“黑體”的漢字樣本集所計算出的模型參數如表2所示。

表2 四連通區域回歸模型參數
為了驗證多元線性回歸模型的有效性,本文實驗中采用基于連通區域個數選取300個常用“黑體”漢字樣本,同時為了簡化運算,該樣本集合中每個漢字的連通區域數目不超過七個。在視覺重心標注中共有十名被試參與標注。不同連通區域樣本漢字分布情況如表3所示。
為了解釋和比較超聲波預處理和隨后的熱風干燥可能導致的結構變化[5]。干燥后的莖瘤芥在25℃的水浴中進行復水。將脫水的莖瘤芥樣品(約3 g)置于80 mL蒸餾水中。一定時間后,將樣品從水中取出,用吸水紙吸去表面水分后稱量。在前30 min,每5 min稱量1次,然后在接下來的30 min,每10 min稱量1次。
為了檢驗模型的有效性,本文由兩個角度檢驗模型的有效性: 1)利用樣本集漢字測試模型擬合程度;2)使用非樣本集漢字測試模型的拓展性。

表3 樣本漢字連通區域個數分布情況
3.1 樣本漢字測試
首先對樣本漢字進行測試,部分樣本漢字測試結果如圖5所示,第一行為上下結構樣本漢字,第二行為左右結構樣本漢字,第三行為半包圍結構樣本漢字。白色圓點為標注點,共有十個,部分重疊,從圖中可以看出不同被試所標注視覺重心雖有差別,但比較集中。黑色圓點是通過回歸模型計算得到的視覺重心,從空間位置上觀察可得,此視覺重心與樣本標注重心基本一致。
另外,本文對多元線性回歸分析結果進行了檢驗。在多元線性回歸分析中,可以用R2作為評價模型擬合程度的一項指標如式(13)所示。
(13)

以四連通區域回歸模型為例,其在x方向上的R2=0.739 2,在y方向上的R2=0.806 5。由此可見,模型具有較好的擬合程度。

圖5 樣本漢字測試結果?;疑珗A點為視覺重心標注點,黑色圓點為模型計算所得視覺重心點。
3.2 非樣本漢字視覺重心計算
本文隨機選取連通區域為2~7的非樣本漢字計算結果如圖6所示,其中第一行為上下型結構漢字,第二行左右型結構漢字,第三行為半包圍型結構漢字。

圖6 非樣本漢字視覺重心計算結果。漢字中心附近黑點大點為計算所得視覺重心點。
從實驗結果來看,文中方法通過統計模型計算出漢字視覺重心,較好地擬合了標注樣本視覺重心。另外,計算出的視覺重心點位于整個漢字圖像幾何中心偏上位置,與黃向東等[6]所提出的經驗知識相吻合。本文方法可以通過收集更多連通區域數目的樣本,對多連通區域回歸模型集合進行訓練,可以對任意連通區域數目的漢字進行視覺重心預測。在構建回歸模型時,本文僅僅考慮了比較通用的多元線性回歸模型,從大量數據樣本提取人眼閱讀時的視覺重心關注規律,雖然從統計意義上獲得了一定的成功,但或許還可以使用更為細致的回歸模型對數據規律進行擬合。在以后的工作中,我們將考慮更加復雜的多元回歸模型,如支持向量機、神經網絡等。
本文提出一種基于統計的漢字視覺重心計算方法。該方法首先通過人工標注視覺重心獲取訓練數據,然后借助回歸分析方法,建立漢字字形連通區域的視覺平衡中心和漢字整體視覺重心之間的關系模型。文中方法很好地擬合了標注者的真實視覺感受,同時也提出了一種漢字字形視覺重心定位和計算的研究思路,能廣泛應用于漢字字形的設計和美化。
[1] 徐學成. 探究印刷活字的易讀因素[J]. 山東工藝美術學院學報, 2013,4: 6-9.
[2] 喻蓉杰. 漢字字體設計造型及其情感分析研究[D]. 武漢理工大學, 2012.
[3] 劉綱紀. 書法美學簡論[M]. 武漢:湖北人民出版社,1979:34.
[4] 張強. 書法文化-形態描述與經典圖釋[M]. 重慶:重慶出版社,2006:84-89.
[5] 李天馬. 楷書行書的技法[M]. 上海:華東師范大學出版社,1989:25-32.
[6] 黃向東. 設計基礎之基礎字體[M]. 西安:陜西人民美術出版社,2004:75-79.
[7] 啟功. 啟功給你講書法[M]. 北京:中華書局,2007:85-89.
[8]LaiPK,YeungDY,PongMC.AheuristicsearchapproachtoChineseglyphgenerationusinghierarchicalcharactercomposition[J].ComputerProcessingofOrientalLanguages, 1997, 10(3): 281-297.
[9]GuYX,WangQR,SuenCY.ApplicationofamultilayerdecisiontreeincomputerrecognitionofChinesecharacters[J].PatternAnalysisandMachineIntelligence,IEEETransactionson, 1983 (1): 83-89.
[10]KaiW,YangYY,SuenCY.Multi-layerprojectionsfortheclassificationofsimilarChinesecharacters[C]//Proceedingsofthe9thInternationalConferenceon.IEEE, 1988: 842-844.
[11]TaoY,TangYY.ThefeatureextractionofChinesecharacterbasedoncontourinformation[C]//ProceedingsoftheFifthInternationalConferenceon.IEEE, 1999: 637-640.
[12]AraiY,KataokaH.Charactershapingdevice:U.S.Patent4,440,513[P]. 1984-4-3.
[13] 范琳偉. 漢字圖像的視覺重心點提取算法研究[J]. 計算機應用與軟件, 2013, 30(9): 44-46.
[14] 蕭皖龍. 漢字規范書寫的全重心理論[J]. 合肥教育學院學報, 2005, 20(4): 28-31.
[15] 張積家, 張厚粲. 漢字認知過程中整體與部分關系論[J]. 應用心理學, 2001, 7(3):57-62.
[16]TreismanAM,GeladeG.Afeature-integrationtheoryofattention[J].Cognitivepsychology, 1980, 12(1): 97-136.
[17]ShihFY,PuCC.AskeletonizationalgorithmbymaximatrackingonEuclideandistancetransform[J].PatternRecognition, 1995, 28(3): 331-341.
[18]KimmelR,KiryatiN,BrucksteinAM.Sub-pixeldistancemapsandweighteddistancetransforms[J].JournalofMathematicalImagingandVision, 1996, 6(2-3): 223-233.
Detection of Visual Center of Gravity from Chinese Characters Based on Statistics
DENG Xiaojian, LI Bin, ZHANG Junsong
(Group of Mind, Art & Computation, Department of Cognitive Science, Xiamen University, Xiamen, Fujian361005, China)
A method of finding the visual center of gravity from a Chinese character is presented in this paper. Firstly we collect some Chinese character samples, and further extract visual balance center of each Chinese character. Then we mark visual center of gravity of the sample characters; ultimately construct a relationship model between the connected region’s visual balance center and visual center of gravity of Chinese characters based on statistics. The proposed method has many potential applications, such as feature extraction, designation and optimization of Chinese characters.
calligraphic characters; connected region; visual center of gravity; regression analysis

鄧曉健(1988—),碩士,主要研究領域為可視化與圖形圖像處理。E-mail:dengxiaojian2015@gmail.com李彬(1989—),碩士,主要研究領域為圖形圖像處理,計算機認知與藝術。E-mail:libin543@gmail.com張俊松(1978—),通訊作者,博士,副教授,主要研究領域為計算機圖形學,中文信息處理,腦與認知科學。E-mail:zhangjs@xmu.edu.cn
1003-0077(2015)04-0159-07
2014-12-29 定稿日期: 2015-03-10
國家自然科學基金(60903129);中國計算機學會中文信息技術開放課題基金(CCF2011-01-03)
TP391
A