馮曉萌 吳玲達 于榮歡 楊 超
?
直接體繪制中增強深度感知的網格投影算法
馮曉萌*①吳玲達②于榮歡②楊 超②
①(裝備學院研究生管理大隊 北京 101416)②(裝備學院復雜電子系統仿真實驗室 北京 101416)
體繪制技術生成的圖像中丟失了深度信息,已有的增強深度感知方法通常只針對某些結構區域,犧牲其它結構信息的同時又直接修改體繪制算法。面向光線投射體繪制算法,該文提出一種增強深度感知的方法,不直接修改光線投射算法。投影均勻網格到體數據表面,網格跟隨表面變形后經光線投射繪制在結果圖像中,用戶根據變形網格能夠感知圖像中的深度信息。同時,為突顯變形網格所反映的深度信息,對投影后的網格線進行深度相關的著色,并添加投影輔助線以連接不同深度表面上的投影網格。算法在統一計算設備架構下并行執行后,不僅能夠實時生成圖像支持用戶的交互控制,且圖像中增強深度感知的效果明顯,特別是當體數據包含多個分離或者交叉物體時。
體繪制;深度感知;網格投影;并行執行;統一計算設備架構
體繪制技術[1]將3維體數據映射為2維圖像,而圖像中丟失了深度信息,這對理解體數據是一種阻礙。針對這一問題,本文研究了增強體繪制結果中深度信息感知的方法。
已有的增強體繪制結果中深度感知的方法中,比較常用的是在生成圖像中繪制提示信息[2],例如在某些結構周圍繪制光環[3,4]和陰影[5,6]等,能較好地表現出這些結構區域的深度信息,但同時卻遮擋了其它結構區域的信息[7]。計算景深效果的方法[8]在一定程度上增強了人對繪制物體的深度感知,但是其只增強了對焦點物體的感知同時還模糊了其它物體的顯示。焦點與上下文[9]的可視化方法能夠在一定程度上增強對焦點區域的感知,但其明顯降低了對背景信息的顯示。
上述方法均在犧牲其它信息的情況下增強了深度感知。Zheng等人[7]通過調整不透明度和亮度,對體數據中的十字交叉區域(X-junction areas)進行了深度重排序,增強了半透明狀態下交叉物體間的深度順序感知。但是,此方法不允許用戶交互,無法按照用戶的需求進行繪制。Bair等人[10,11]深入研究了網格紋理對表面形狀的感知效果,雖有討論應用于體繪制,但其側重于同時表現兩個相互遮擋表面的形狀,未將網格紋理應用于表現體繪制中的相對深度信息,特別是不同物體或結構間的相對深度。
針對上述方法的不足,研究了在不犧牲其它信息的條件下可交互的增強體繪制中深度感知的方法:將均勻網格投影到體數據表面,根據均勻網格投影后的形變情況感知體數據表面的深度變化。研究表明,紋理是影響人眼對圖像感知的因素之一[12],投影后的網格繪制到圖像中即為網格紋理[13],影響人眼對圖像信息的感知。為增強網格投影的深度感知效果,將網格投影線按深度進行著色,并添加了網格投影輔助線等。本方法不僅適用于單個物體表面,對體數據中包含多個物體的情況也有很好的增強深度感知的能力。
人能夠根據先驗知識理解圖像中的信息,特別是當圖像中存在提示信息時,能夠更好地理解圖像內容。本文研究的目標是在不犧牲其它信息和不改變原體繪制算法的情況下增強深度信息感知。圖1顯示了均勻網格投影在空間表面后不同視角下的觀察效果,其中:側視圖能夠提供一定的可視深度信息感知,顯示出了表面的起伏及其延伸方向;俯視圖則未表現出表面的起伏信息。

圖1 不同視角下的網格投影效果
對比圖1中的兩個視圖,說明觀察網格在表面的投影時需要一定的觀察視角。文獻[13]通過在繪制的物體表面映射紋理顯示表面的形狀信息,使用了網格紋理,但是其觀察視角固定為俯視,沒有較好地抓住網格所能表現的深度信息。同時其研究使用的體數據為一個簡單物體,未對更復雜的情況進行研究。本文則充分利用了網格對表面深度信息的感知作用,使用均勻網格投影對體數據中的物體表面以及物體間的相對距離等進行了感知增強。
2.1 網格投影流程
光線投射算法[14]是繪制質量最好的體繪制算法[15],其是從一定角度對體數據的觀察。由圖1可知,光線投射方向與網格投影方向不能平行,對體數據進行均勻網格投影與光線投射的關系如圖2所示。這里定義光線投射算法中使用的體素為有效體素,即光線對有效體素進行了數據采樣、顏色轉換等操作,網格只投影到其遇到的第1個有效體素上,即投影到參與繪制的體數據表面。

圖2 均勻網格投影示意圖
算法流程如圖3所示,其虛線框中是網格投影與光線投射的并行。光線投射算法中,每條光線的操作都相同,因此圖3的虛線框中只顯示了一條光線的投射操作流程。虛線框外的網格投影信息來自所有截止的光線,投影輔助線生成階段獨立于光線投射,將在3.3節進行介紹。

圖3 網格投影算法流程
將均勻網格投影到其遇到的第1個有效體素上,若此體素同時又是某條光線投射時遇到的第1個體素,則截止此光線并將其對應的像素設置為網格著色后的顏色,否則網格投影對光線投射無任何影響。被截止的所有光線對應網格的投影點,根據所有網格投影點的信息生成投影輔助線并繪制到光線投射生成的圖像中,即獲得算法最終的生成圖像。最終生成圖像中,根據均勻網格投影后的變形情況能夠觀察出網格所投影到的表面的起伏變化,增強對繪制結果的深度感知。
2.2 網格著色
根據網格變形情況感知深度信息的同時,為投影后的網格進行深度相關的著色有利于增強深度對比。每個網格點的投影距離如圖4所示,是網格上點到其投影點之間的距離且不同的距離對應不同的深度。網格的顏色根據投影距離進行變化,在顏色上對網格的深度進行對比顯示,使體數據的深度信息更加突顯。

圖4 網格投影距離

一般情況下,光線投射體繪制算法會用到許多顏色值,為避免顏色沖突導致網格線不明顯的情況發生,網格著色時函數式應該保持顏色值與體繪制使用顏色不同。因此,網格顏色應盡量在3個分量上與繪制體數據使用的顏色保持較大差異,以便設置顏色值與投影距離的函數關系。
2.3投影輔助線
網格投影時若相鄰兩點分別投影到了深度不同的兩個表面,由圖2所示的光線投射與網格投影的關系可知,最終生成的圖像中此兩點將不相鄰從而導致投影網格間斷。投影網格間斷將影響其對表面深度的感知效果,因此,應該盡量避免此現象。將網格上相鄰而投影后不相鄰的兩個網格投影點使用虛直線連接,此條直線定義為投影輔助線。投影輔助線最終顯示在繪制圖像中,避免網格線投影的間斷現象。當投影后的網格點與視點之間存在有效體素時,此網格點將被遮擋。同理,一些投影輔助線也可能會被遮擋,在生成圖像中只繪制兩端均不被遮擋的投影輔助線。
光線投射算法易于并行實現,而圖3所示的本算法流程并未改變光線間的獨立性。因此,算法依然能夠并行實現,在其具體執行中應保持其可并行性。
3.1 光線投射
圖3中,網格投影附加在光線投射過程中,通過對光線投射路徑上第1個有效體素的判斷,決定對光線投射的影響。并行執行過程中,所有光線均需對其遇到的第1個有效體素進行網格投影的判斷,判斷過程分為以下幾個步驟:
步驟7 結束判斷過程。
經過上述步驟后,若光線未被截止,將繼續完成其投射過程并生成對應的像素值。網格投影只影響部分光線,而不影響光線投射過程中的具體操作,因此保持了原光線投射算法的生成效果,只是在其基礎上覆蓋了網格。
3.2 著色函數設置
估計的投影距離值域有冗余,分布在值域兩端。因此,設置式(1)中的函數時,保持的自變量值域固定,且對應此值域的兩端函數變化緩慢而中間部分則變化明顯。根據投影距離著色是為了增強網格投影后的深度感知,無精確要求,可以進行粗略估計和設置,以能夠看到投影后網格線的顏色變化為佳。圖5所示為一個示例函數的曲線,下方是對應曲線值的顏色條帶,顏色取值對應于投影距離值域。

圖5 網格線著色示例
3.3投影輔助線生成
圖像中的每個網格投影點均對應一條光線,所有光線投射結束后處理投影點生成投影輔助線。如圖6所示,經過像素點和的光線分別對應網格投影點和,記錄這兩個投影點在網格平面的對應點和。與記錄和兩點的原理相同,在光線投射完成后獲得所有圖像中的網格投影點在網格平面的對應位置點集。在點集中若存在相鄰兩點對應的投影距離差別較大,則此兩點對應的網格投影點之間存在投影輔助線:以圖6為例,和為相鄰網格點時,由于到的投影距離與到的投影距離差別較大,投影點和之間存在投影輔助線,直接在圖像中使用虛直線連接和兩個像素點以繪制此投影輔助線。中兩點是否相鄰由兩點間的距離決定,距離不大于則視為相鄰;兩點的投影距離差大于時視為差別較大。默認值為2,默認值為光線采樣步長,執行時均可進行調整。

圖6 生成投影輔助線示意圖
為保持算法的可并行性,投影輔助線需并行生成,將網格均勻離散為個點,保證在網格的4個角和所有網格線的交叉點處均有離散點,各離散點對應的處理過程均為:(1)判斷此離散點的臨域內是否存在中的兩個以上點,若存在則繼續下一步,否則結束此過程;(2)將這兩個以上點兩兩組合,判斷每個組合中的兩點和對應的投影距離是否差別較大,是則生成和對應的投影輔助線。
3.4交互設置
算法中,拖動鼠標可以使網格中心點在以體數據中心為中點半徑為的球面上移動。如此,圖2所示的光線投射和網格投影的方向均可交互控制,便于用戶根據需要調節兩者的角度從而達到更好的增強深度感知的效果。同時,算法中還允許用戶對網格自身的參數進行交互設置,可以控制網格中網孔的大小,以及整個網格的大小。
3.5并行執行
上述算法執行中保持了可并行性,算法能夠并行實現從而提高執行效率。現有的繪制技術研究中,統一計算設備架構[16](Compute Unified Device Architecture, CUDA)是使用最多的并行實現基礎。本算法同樣使用CUDA并行實現,充分利用CUDA對通用計算的支持,提高算法的執行效率,為用戶交互提供時間支持。在4節的基礎上,加入網格投影后光線投射的具體執行偽代碼如表1所示。
表1中,函數isCoverGrid(pos)根據有效體素的位置參數pos判斷網格是否能夠投影到此位置,具體步驟見3.1節;函數getGirdColor(pos)根據參數pos對應的有效體素的投影距離進行網格著色,并返回此顏色值;函數rayCasting(pos)對參數pos處的有效體素進行光線投射的相關計算,并返回光線投射到pos位置時獲得的當前像素值。表1中生成的圖像還需要進行投影輔助線生成,具體操作步驟見3.3節,其較簡單不再列出其偽代碼。在CUDA架構下投射光線時,為提高光線對體數據的采樣效率,將體數據綁定到3維紋理,利用紋理采樣器實現對數據場內數據點的高效插值采樣。
表1光線投射內核函數偽代碼

內核函數:網格投影下光線投射的執行線程 pixX = blockIdx.x*blockDim.x + threadIdx.x; //像素X坐標pixY = blockIdx.y*blockDim.y + threadIdx.y; //像素Y坐標IF (pixX, pixY) is in the Image THEN pixValue = {0,0,0,0};// 初始化像素記錄值為零 theRay = genRayforPix (pixX, pixY); //生成對應光線WHILE theRay not terminate DO//計算當前循環中光線在數據場中遇到的有效體素位置rayPos = getRayPosition(theRay, dataVolume); IF rayPos is out of the data volume BREAK WHILE;IF rayPos is the first THEN IF isCoverGrid(rayPos) is true THEN //被網格覆蓋 pixValue = getGirdColor(rayPos); //網格著色ELSE pixValue = rayCasting(rayPos); //執行光線投射END IFELSE pixValue = rayCasting(rayPos); //執行光線投射END IFEND WHILEImage [pixX, pixY] = pixValue; //獲得對應的像素值END IF
算法未改變光線投射的操作,因而無需對光線投射算法進行限定。實驗中,為檢驗算法的實際效果,實現了一個簡單的光線投射算法(DVR算法),在其基礎上進行網格投影并生成最終圖像。使用多個體數據進行繪制,對使用和未使用網格投影兩種情況所得到的繪制效果進行了對比展示。同時,統計了實驗中的算法執行時間,以說明算法并行執行的高效性。
4.1算法應用效果
圖7是算法應用于體數據的繪制結果。圖7(a)中繪制的是Sphere體數據,圖7(a1), (a2)和圖7(a3), (a4)均對比顯示了使用和未使用網格投影的繪制結果:沒有網格投影的兩幅圖無法獲得其表面的深度信息;而有網格投影的兩幅圖,體數據表面的起伏情況能夠被網格的變形情況反映出來,輔助用戶感知體數據的表面深度信息。對比圖7(a2)和圖7(a3),根據網格變形及其著色情況可以看出:圖7(a2)中部的9個網格顏色一致且形狀無變形,可以判定其覆蓋區域為平面,即中間部位是平面周圍是曲面;圖7(a3)中則不存在此種情況,根據網格的變形情況可判定其覆蓋的表面是曲面。根據圖7(a)中的實驗結果可以看出,網格投影能夠反映出體數據表面的深度信息,特別是根據網格變形及著色情況的對比能夠得出較詳細的表面深度信息。
圖7(b)是BackpackScan體數據的繪制結果,對某些區域的對比進行了細節展示:豎框中顯示了體數據中的線束和圓柱形物體兩者的遮擋關系不明,而進行網格投影后,線束所在區域的網格投影波動較大,可以判定此區域網格投影在了線束上而非圓柱體表面,說明網格投影后可知線束在前;橫框中同樣顯示出圓柱形物體和另一個物體間存在遮擋關系,網格在另一物體的對應像素區域未按其形狀進行改變,說明網格投影在圓柱形物體表面,圓柱形物體遮擋另一物體。
圖8是Neghip體數據的繪制結果,在沒有網格投影的繪制圖像中,用數字標識了6個區域,這6個區域的相對位置在繪制結果中無法辨識。但是,加入網格投影后,這6個區域的相對深度及相對位置較易辨識:網格投影線從綠色到藍色表示深度從淺到深。對比標號“4”和“5”的兩個區域,雖然投影的網格間沒有相連,但是根據兩個區域的網格線顏色可以得知區域“5”的深度較淺。在區域“1”,“2”和區域“2”,“4”之間均存在投影輔助線,通過這些投影輔助線很容易區分其兩端連接的不同結構表面的深度:深度由淺到深依次為區域“1”,“2”,“4”。與圖7(b)中相同,在圖8中標號為“1”的區域處,存在遮擋情況,根據網格的投影情況很容易判斷兩個物體的遮擋關系。

圖7 算法應用效果
由圖7和圖8中網格投影的對比效果可知,使用網格投影后的繪制結果能夠顯示出很多體數據中原有的深度信息,便于用戶對體數據的觀察和深度感知。算法中使用了3種輔助手段增強繪制結果中的深度感知,分別是投影變形后的網格、網格投影線的顏色以及投影輔助線,以投影變形后的網格為主,另外兩種對其進行補充:變形網格提示其所覆蓋表面的起伏信息,網格投影線顏色區分網格所在的不同深度區域,投影輔助線連接不同區域的網格并增強這些區域的深度對比。獲得深度感知效果的同時應注意,當投影網格密度過大時(比圖7和圖8中的密度大很多),網格的存在將嚴重影響繪制圖像的顯示效果。因此,進行網格投影時,為獲得較好的顯示效果應避免投影密度過大的網格。
相比文獻[7]中的方法,本文算法通過投影后網格的變形情況感知物體間的遮擋層次,不必調整物體結構的不透明度,較簡單且保持了光線投射體繪制算法的獨立性。相比Bair等人[10,11]的方法,本文算法深入研究了網格投影在體繪制中增強深度感知的效用,不僅能夠感知表面形狀,還能夠辨明物體間的遮擋關系等,針對分離物體使用投影輔助線能夠較好地感知物體之間的相對深度。算法中,網格顯隱可以控制,當不繪制網格投影時即為光線投射算法的繪制結果,網格投影能夠輔助用戶增強對繪制結果中的深度感知。同時,網格的參數可以被用戶交互控制,便于觀察繪制結果中的不同區域及其深度細節。

圖8 相對深度感知效果
4.2算法執行效率
算法并行執行的硬件環境為:Intel Core i5-2400 CPU 3.10 GHz、4 GB內存、NVIDIA GeForce GTX 470顯卡;軟件環境為集成NVIDIA GPU Computing SDK 4.2的Microsoft Visual Studio 2005。為驗證算法的執行效率,在交互改變網格參數、投影方向及光線投射方向的情況下,連續統計了算法執行500次的時間。交互過程中,網格大小為圖像大小的整數倍(從1到6任意調整),格孔寬度在10到100個像素之間變化,3.1節中的閾值為0.5倍的單像素寬度,3.3節中的設置為2,設置為光線采樣步長即數據場中同一維度上相鄰兩數據點之間的距離。由于執行過程伴有交互控制,執行時間會隨之變化,表2中只列出了這500次執行的平均時間及其中的最短時間和最長時間。實驗使用了4個體數據,生成圖像分辨率為800×800。表2中統計了兩種執行類型的繪制時間,分別是:(a)只執行投影網格的操作,不進行光線投射,即不執行圖3中判斷為“否”的分支;(b)完全按照圖3所示流程執行并生成最終圖像。
通過表2中列出的500次執行時間的值域及均值可以看出,基于CUDA架構并行執行后算法的效率完全能夠達到實時。因此,算法在交互控制下能夠實時更新繪制結果,便于用戶觀察其交互結果從而獲得更佳的深度感知效果。對比表2中(a)和(b)兩種類型的執行時間,不進行光線投射時的執行時間明顯較短,說明網格投影算法的執行效率很高,不僅為其實時應用于其它光線投射算法提供了時間裕度上的支持,還可以添加其它操作等。
算法在CPU中串行執行時,繪制表2中4個體數據的最短時間均在1 s以上,基本不可用,因此不再列出算法的串行執行時間統計。同時,這也說明算法設計時保持其可并行性是非常必要的,能夠最大限度地提高執行效率,保證其可用。
表2算法執行時間統計

體數據最短時間(ms)最長時間(ms)平均時間(ms)執行類型 Sphere64×64×641.391.861.64(a) 5.866.326.09(b) BackpackScan512×512×3732.0918.949.00(a) 24.0237.6031.24(b) Neghip64×64×641.333.111.98(a) 4.786.485.34(b) Engine256×256×1101.334.982.92(a) 9.5913.3811.00(b)
本文提出了一種使用網格投影增強體繪制中深度感知的方法,該方法在保持光線投射體繪制算法獨立性的同時能夠很好地輔助用戶增強對繪制結果中深度信息的感知,使用戶能夠更好地理解體數據。算法與光線投射算法一樣可并行執行,在CUDA架構下并行實現后能夠達到實時繪制,便于用戶交互使用。在圖7和圖8所示的實驗結果中,網格投影線在某些區域不夠平滑,將在以后的研究中進行改進。同時,體數據表面起伏會影響網格投影線的視覺效果,當表面起伏劇烈到一定程度后將導致網格投影線的視覺混亂以至于無法顯示深度信息。該方法是一種新的增強體繪制中深度感知的方法,存在的上述不足將在未來的工作中進一步研究和完善。
[1] Zhang Q, Eagleson R, and Peters T M. Volume visualization: A technical overview with a focus on medical applications[J]., 2011, 24(4): 640-664.
[2] Kersten-Oertel M, Chen S J, and Collins D L. An evaluation of depth enhancing perceptual cues for vascular volume visualization in neurosurgery[J]., 2014, 20(3): 391-403.
[4] Everts M H, Bekker H, Roerdink J B,.. Depth-dependent halos: illustrative rendering of dense line data[J]., 2009, 15(6): 1299-1306.
[5] Soltészvá V, Patel D, and Viola I. Chromatic shadows for improved perception[C]. Proceedings of the ACM SIGGRAPH/Eurographics Symposium on Non- Photorealistic Animation and Rendering, Vancouver, Canada, 2011: 105-116.
[6] Ament M, Sadlo F, Dachsbacher C,.. Low-pass filtered volumetric shadows[J]., 2014, 20(12): 2437-2446.
[7] Zheng Lin, Wu Ying-cai, and Ma Kwan-liu. Perceptually- based depth-ordering enhancement for direct volume rendering[J]., 2013, 19(3): 446-459.
[8] Schott M, Grosset A V P, Martin T,.. Depth of field effects for interactive direct volume rendering[C]. Proceedings of the Eurographics/IEEE Symposium on Visualization 2011, Bergen, Norway, 2011: 941-950.
[9] Berge C S Z, Baust M, Kapoor A,.. Predicate-based focus-and-context visualization for 3D ultrasound[J]., 2014, 20(12): 2379-2387.
[10] Bair A S, House D H, and Ware C. Texturing of layered surfaces for optimal viewing[J]., 2006, 12(5): 1125-1132.
[11] Bair A and House D. A grid with a view: optimal texturing for perception of layered surface shape[J]., 2007, 13(6): 1656-1663.
[12] 蔣剛毅, 朱亞培, 郁梅, 等. 基于感知的視頻編碼方法綜述[J]. 電子與信息學報, 2013, 35(2): 474-483.
Jiang Gang-yi, Zhu Ya-pei, Yu Mei,.. Perceptual video coding: a survey[J].&, 2013, 35(2): 474-483.
[13] Interrante V, Fuchs H, and Pizer S M. Conveying the 3D shape of smoothly curving transparent surfaces via texture[J]., 1997, 3(2): 98-117.
[14] Xie Jin-rong, Yu Hong-feng, and Ma Kwan-liu. Interactive ray casting of geodesic grids[C]. Proceedings of the Eurographics Conference on Visualization 2013, Leipzig, Germany, 2013: 481-490.
[15] 馬千里, 李思昆, 白曉征, 等. CFD非結構化網格格心格式數據高質量體繪制方法[J]. 計算機學報, 2011, 34(3): 508-516.
Ma Qian-li, Li Si-kun, Bai Xiao-zheng,.. High-quality volume rendering of unstructured-grid cell-centered data in CFD[J]., 2011, 34(3): 508-516.
[16] NVIDIA. About CUDA[OL]. https://developer.nvidia.com/ about-cuda, 2015.
[17] Rosen P. A visual approach to investigating shared and global memory behavior of CUDA kernels[C]. Proceedings of the Eurographics Conference on Visualization 2013, Leipzig, Germany, 2013: 161-170.
[18] Zhang Yu-bo, Dong Zhao, and Ma Kwan-liu. Real-time volume rendering in dynamic lighting environments using precomputed photon mapping[J]., 2013, 19(8): 1317-1330.
[19] 曾理, 倪風岳, 劉寶東, 等. 計算機統一設備架構加速外部計算機斷層圖像重建[J]. 電子與信息學報, 2011, 33(11): 2665-2671.
Zeng Li, Ni Feng-yue, Liu Bao-dong,.. Image reconstruction of exterior computed tomography accelerated by computer unified device architecture[J].&, 2011, 33(11): 2665-2671.
Enhanced Depth Perception Grid-projection Algorithm for Direct Volume Rendering
Feng Xiao-meng①Wu Ling-da②Yu Rong-huan②Yang Chao②
①(,,101416,)②(,,101416,)
The depth information in volume data is lost in the image rendered by volume rendering technique. The existing methods of depth perception enhancement only enhance some structures in the volume data at the cost of other structures details, and they directly edit the volume rendering algorithm. For ray-casting algorithm, a method of depth perception enhancement is presented, and it does not directly edit the algorithm. Specifically, an inerratic grid is projected to the surface of volume data, and then the grid changing along surface is rendered in the final image. Users can apperceive the depth information of surface from the changed grid. Meanwhil, two methods are used to enhance the depth information of the grid projection lines, one is coloring the grid lines based on the depth, and the other one is adding accessorial lines to join the grid lines on two surfaces with different depths. When implemented using compute unified device architecture, the image is rendered in real-time under user interaction. The effect of depth perception enhancement in the final image is obvious especially when the volume data contains some disjunct or intersectant objects.
Volumerendering; Depth perception; Grid-projection; Parallel implementation; Compute unified device architecture
TP391 獻標識碼: A
1009-5896(2015)11-2548-07
10.11999/JEIT150303
2015-03-13;改回日期:2015-06-29;
2015-08-27
馮曉萌 130123feng@163.com
國家自然科學基金(61202129)資助課題
The National Natural Science Foundation of China (61202129)
馮曉萌: 男,1986年生,博士生,研究方向為科學計算可視化.
吳玲達: 女,1962年生,教授,研究方向為虛擬現實與可視化、多媒體技術.
于榮歡: 男,1983年生,助理研究員,研究方向為科學計算可視化、集群計算.